Kontakt z nami

Liderzy myśli

Każdy agent AI może mówić. Niewielu można zaufać

mm

Potrzeba agentów AI w opiece zdrowotnej jest pilna. W całej branży przepracowane zespoły są zalewane czasochłonnymi zadaniami, które wstrzymują opiekę nad pacjentami. Lekarze są przeciążeni pracą, centra telefoniczne dla płatników są przeciążone, a pacjenci czekają na odpowiedzi na pilne pytania.

AI agenci może pomóc poprzez wypełnienie głębokich luk, rozszerzenie zasięgu i dostępności personelu klinicznego i administracyjnego oraz zmniejszenie wypalenia zawodowego personelu medycznego i pacjentów. Ale zanim to zrobimy, potrzebujemy solidnej podstawy do budowania zaufania do agentów AI. To zaufanie nie będzie pochodzić z ciepłego tonu głosu lub płynności konwersacyjnej. Pochodzi z inżynierii.

Nawet gdy zainteresowanie agentami AI gwałtownie rośnie, a nagłówki gazet trąbią o obietnicy agentowej AI, liderzy opieki zdrowotnej – odpowiedzialni przed swoimi pacjentami i społecznościami – nadal wahają się przed wdrożeniem tej technologii na dużą skalę. Startupy zachwalają możliwości agentowe, które obejmują automatyzację przyziemnych zadań, takich jak planowanie wizyt, po komunikację i opiekę nad pacjentem. Jednak większość z nich musi jeszcze udowodnić, że takie zaangażowanie jest bezpieczne.

Wielu z nich nigdy tego nie zrobi.

Prawda jest taka, że ​​każdy może wymyślić agent głosowy zasilany przez duży model językowy (LLM), nadaj mu współczujący ton i napisz konwersację, która brzmi przekonująco. Jest wiele platform takich jak ta, które reklamują swoich agentów w każdej branży. Ich agenci mogą wyglądać i brzmieć inaczej, ale wszyscy zachowują się tak samo – są podatni na halucynacje, niezdolni do weryfikacji kluczowych faktów i brakuje im mechanizmów zapewniających rozliczalność.

To podejście – budowanie często zbyt cienkiej otoczki wokół podstawowego LLM – może działać w branżach takich jak handel detaliczny czy hotelarstwo, ale zawiedzie w opiece zdrowotnej. Podstawowe modele to niezwykłe narzędzia, ale w dużej mierze są uniwersalne; nie zostały specjalnie przeszkolone w zakresie protokołów klinicznych, zasad płatniczych ani standardów regulacyjnych. Nawet najbardziej elokwentni agenci zbudowani na tych modelach mogą zboczyć na terytorium halucynacji, odpowiadając na pytania, na które nie powinni, wymyślając fakty lub nie rozpoznając, kiedy należy włączyć człowieka do pętli.

Konsekwencje tych zachowań nie są teoretyczne. Mogą one dezorientować pacjentów, zakłócać opiekę i skutkować kosztownymi przeróbkami ludzkimi. To nie jest problem inteligencji. To problem infrastruktury.

Aby działać bezpiecznie, skutecznie i niezawodnie w opiece zdrowotnej, agenci AI muszą być czymś więcej niż tylko autonomicznymi głosami po drugiej stronie telefonu. Muszą być obsługiwani przez systemy zaprojektowane specjalnie pod kątem kontroli, kontekstu i odpowiedzialności. Oto, jak to wygląda w praktyce na podstawie mojego doświadczenia w budowaniu tych systemów.

Kontrola reakcji może sprawić, że halucynacje przestaną istnieć

Agenci AI w opiece zdrowotnej nie mogą po prostu generować prawdopodobnych odpowiedzi. Muszą dostarczać poprawne odpowiedzi za każdym razem. Wymaga to kontrolowanej „przestrzeni działania” – mechanizmu, który pozwala AI rozumieć i ułatwiać naturalną konwersację, ale zapewnia, że ​​każda możliwa odpowiedź jest ograniczona przez wstępnie zdefiniowaną, zatwierdzoną logikę.

Dzięki wbudowanym parametrom kontroli odpowiedzi agenci mogą odwoływać się wyłącznie do zweryfikowanych protokołów, wstępnie zdefiniowanych procedur operacyjnych i standardów regulacyjnych. Kreatywność modelu jest wykorzystywana do kierowania interakcjami, a nie do improwizowania faktów. W ten sposób liderzy opieki zdrowotnej mogą zapewnić ryzyko halucynacja jest całkowicie eliminowane – nie poprzez testowanie w ramach pilotażu lub pojedynczej grupy fokusowej, ale poprzez projektowanie ryzyka na poziomie podstawowym.

Specjalistyczne grafy wiedzy mogą zapewnić zaufaną wymianę

Kontekst każdej rozmowy o opiece zdrowotnej jest głęboko osobisty. Dwie osoby z cukrzycą typu 2 mogą mieszkać w tej samej okolicy i pasować do tego samego profilu ryzyka. Ich kwalifikowalność do konkretnego leku będzie się różnić w zależności od ich historii medycznej, wytycznych dotyczących leczenia u lekarza, planu ubezpieczeniowego i zasad formularza.

Agenci AI nie tylko potrzebują dostępu do tego kontekstu, ale także muszą być w stanie rozumować z nim w czasie rzeczywistym. Specjalistyczny wykres wiedzy zapewnia taką możliwość. To ustrukturyzowany sposób przedstawiania informacji z wielu zaufanych źródeł, który pozwala agentom weryfikować to, co słyszą, i zapewniać, że informacje, które przekazują, są zarówno dokładne, jak i spersonalizowane. Agenci bez tej warstwy mogą wydawać się poinformowani, ale tak naprawdę po prostu podążają za sztywnymi przepływami pracy i wypełniają luki.

Solidne systemy przeglądu mogą oceniać dokładność

Pacjent może rozłączyć się z agentem AI i poczuć się usatysfakcjonowany, ale praca agenta jest daleka od zakończenia. Organizacje opieki zdrowotnej potrzebują pewności, że agent nie tylko dostarczył poprawne informacje, ale zrozumiał i udokumentował interakcję. Tutaj wkraczają zautomatyzowane systemy postprocessingu.

Solidny system przeglądu powinien oceniać każdą rozmowę z takim samym drobiazgowym poziomem kontroli, jaki zapewniłby ludzki przełożony, który ma mnóstwo czasu. Powinien być w stanie określić, czy odpowiedź była dokładna, upewnić się, że zebrano właściwe informacje i określić, czy konieczne jest podjęcie działań następczych. Jeśli coś jest nie tak, agent powinien móc przekazać sprawę człowiekowi, ale jeśli wszystko się zgadza, zadanie można pewnie odhaczyć z listy rzeczy do zrobienia.

Oprócz tych trzech podstawowych elementów wymaganych do zbudowania zaufania, każda infrastruktura agentowej AI potrzebuje solidnych ram bezpieczeństwa i zgodności, które chronią dane pacjentów i zapewniają działanie agentów w ramach regulowanych granic. Ramy te powinny obejmować ścisłe przestrzeganie powszechnych standardów branżowych, takich jak SOC 2 i HIPAA, ale powinny również zawierać wbudowane procesy testowania stronniczości, chronionej redakcji informacji o stanie zdrowia i przechowywania danych.

Te zabezpieczenia nie tylko sprawdzają pola zgodności. Stanowią one kręgosłup godnego zaufania systemu, który może zapewnić, że każda interakcja jest zarządzana na poziomie, jakiego oczekują pacjenci i dostawcy.

Branża opieki zdrowotnej nie potrzebuje więcej szumu wokół AI. Potrzebuje niezawodnej infrastruktury AI. W przypadku agentowej AI zaufanie nie zostanie zdobyte tak bardzo, jak zostanie zaprojektowane.

Shyam Rajagopalan jest współzałożycielem i dyrektorem technicznym NieskończonośćJako doświadczony i praktyczny lider, Rajagopalan aktywnie współpracuje ze swoim zespołem, przyczyniając się do kodowania i udzielając wskazówek dotyczących projektowania technicznego i produktu.

Przed pracą w Infinitus, jako architekt oprogramowania, Rajagopalan projektował, budował i uruchamiał wysoce bezpieczne, wysokoprzepustowe systemy dla Snap Inc. oraz platform logowania i bezpieczeństwa Google. Wcześniej kierował zespołem inżynierów jako dyrektor ds. inżynierii w startupie zajmującym się inteligencją mobilną Quettra (przejętym przez Similar Web). Rajagopalan rozpoczął karierę w MIPS i Nvidia, projektując i budując wydajne procesory.