Anslut dig till vÄrt nÀtverk!

Tanke ledare

Vilken AI-agent som helst kan prata. FÄ kan litas pÄ.

mm

Behovet av AI-agenter inom sjukvĂ„rden Ă€r akut. Över hela branschen översvĂ€mmas överarbetade team av tidskrĂ€vande uppgifter som försenar patientvĂ„rden. LĂ€kare har svĂ„rt att hantera sina behov, callcenter för betalare Ă€r överbelastade och patienter lĂ€mnas kvar och vĂ€ntar pĂ„ svar pĂ„ omedelbara problem.

AI-medel kan hjÀlpa till genom att fylla djupa luckor, utöka rÀckvidden och tillgÀngligheten för klinisk och administrativ personal och minska utbrÀndhet hos bÄde vÄrdpersonal och patienter. Men innan vi kan göra det behöver vi en stark grund för att bygga förtroende för AI-agenter. Det förtroendet kommer inte frÄn en varm ton eller flyt i samtalet. Det kommer frÄn ingenjörskonst.

Även om intresset för AI-agenter skjuter i höjden och rubrikerna basunerar ut löftet om agentisk AI, Ă€r vĂ„rdledare – ansvariga inför sina patienter och samhĂ€llen – fortfarande tveksamma till att implementera denna teknik i stor skala. Startups marknadsför agentiska funktioner som strĂ€cker sig frĂ„n att automatisera vardagliga uppgifter som tidsbokning till avancerad patientkommunikation och vĂ„rd. ÄndĂ„ har de flesta Ă€nnu inte bevisat att dessa engagemang Ă€r sĂ€kra.

MÄnga av dem kommer aldrig att göra det.

Verkligheten Ă€r den att vem som helst kan skapa en röstagent drivs av en stor sprĂ„kmodell (LLM), ge den en medkĂ€nnande ton och skapa ett samtal som lĂ„ter övertygande. Det finns gott om plattformar som denna som sĂ€ljer sina agenter i alla branscher. Deras agenter kan se och lĂ„ta olika ut, men alla beter sig likadant – benĂ€gna att hallucinera, oförmögna att verifiera viktiga fakta och saknar mekanismer som sĂ€kerstĂ€ller ansvarsskyldighet.

Denna metod – att bygga ett ofta alltför tunt omslag runt en grundlĂ€ggande juridikexamen – kan fungera inom branscher som detaljhandel eller hotell- och restaurangbranschen, men kommer att misslyckas inom sjukvĂ„rden. GrundlĂ€ggande modeller Ă€r extraordinĂ€ra verktyg, men de Ă€r till stor del allmĂ€nt anvĂ€ndbara; de har inte utbildats specifikt i kliniska protokoll, betalarpolicyer eller regelverk. Även de mest vĂ€ltaliga agenterna som bygger pĂ„ dessa modeller kan glida in i hallucinatoriskt territorium, besvara frĂ„gor de inte borde, hitta pĂ„ fakta eller misslyckas med att inse nĂ€r en mĂ€nniska behöver informeras.

Konsekvenserna av dessa beteenden Àr inte teoretiska. De kan förvirra patienter, störa vÄrden och resultera i kostsamma mÀnskliga omarbetningar. Detta Àr inte ett intelligensproblem. Det Àr ett infrastrukturproblem.

För att kunna arbeta sÀkert, effektivt och tillförlitligt inom sjukvÄrden mÄste AI-agenter vara mer Àn bara autonoma röster i andra Ànden av telefonen. De mÄste styras av system som Àr specifikt konstruerade för kontroll, sammanhang och ansvarsskyldighet. UtifrÄn min erfarenhet av att bygga dessa system ser det ut sÄ hÀr i praktiken.

Responskontroll kan göra hallucinationer obefintliga

AI-agenter inom sjukvĂ„rden kan inte bara generera rimliga svar. De mĂ„ste leverera de korrekta svaren, varje gĂ„ng. Detta krĂ€ver ett kontrollerbart "handlingsutrymme" – en mekanism som gör det möjligt för AI:n att förstĂ„ och underlĂ€tta naturliga samtal, men som sĂ€kerstĂ€ller att varje möjligt svar begrĂ€nsas av fördefinierad, godkĂ€nd logik.

Med inbyggda parametrar för responskontroll kan agenter bara referera till verifierade protokoll, fördefinierade operativa procedurer och regelstandarder. Modellens kreativitet utnyttjas för att vĂ€gleda interaktioner snarare Ă€n att improvisera fakta. SĂ„ hĂ€r kan vĂ„rdledare sĂ€kerstĂ€lla risken för hallucinationer elimineras helt – inte genom att testa i ett pilotprojekt eller en enskild fokusgrupp, utan genom att utforma risken pĂ„ markplan.

Specialiserade kunskapsgrafer kan sÀkerstÀlla pÄlitliga utbyten

Kontexten för varje vÄrdsamtal Àr djupt personlig. TvÄ personer med typ 2-diabetes kan bo i samma omrÄde och ha samma riskprofil. Deras behörighet för ett specifikt lÀkemedel varierar beroende pÄ deras sjukdomshistoria, lÀkarens behandlingsriktlinjer, deras försÀkringsplan och lÀkemedelsregler.

AI-agenter behöver inte bara tillgÄng till detta sammanhang, utan de behöver ocksÄ kunna resonera kring det i realtid. En specialiserad kunskapsgraf ger den möjligheten. Det Àr ett strukturerat sÀtt att representera information frÄn flera betrodda kÀllor som gör det möjligt för agenter att validera vad de hör och sÀkerstÀlla att informationen de ger tillbaka Àr bÄde korrekt och personlig. Agenter utan detta lager kanske lÄter informerade, men de följer egentligen bara strikta arbetsflöden och fyller i luckorna.

Robusta granskningssystem kan utvÀrdera noggrannhet

En patient kanske lÀgger pÄ med en AI-agent och kÀnner sig nöjd, men agentens arbete Àr lÄngt ifrÄn över. HÀlso- och sjukvÄrdsorganisationer behöver försÀkran om att agenten inte bara producerade korrekt information, utan ocksÄ förstod och dokumenterade interaktionen. Det Àr dÀr automatiserade efterbehandlingssystem kommer in i bilden.

Ett robust granskningssystem bör utvÀrdera varje enskild konversation med samma noggrannhet som en mÀnsklig handledare med all tid i vÀrlden skulle ge. Det bör kunna identifiera om svaret var korrekt, sÀkerstÀlla att rÀtt information samlades in och avgöra om uppföljning krÀvs eller inte. Om nÄgot inte stÄr rÀtt till bör handlÀggaren kunna eskalera till en mÀnniska, men om allt stÀmmer kan uppgiften bockas av frÄn att-göra-listan med tillförsikt.

Utöver dessa tre grundlÀggande element som krÀvs för att skapa förtroende, behöver varje agentbaserad AI-infrastruktur ett robust sÀkerhets- och regelverk som skyddar patientdata och sÀkerstÀller att agenter arbetar inom reglerade grÀnser. Det ramverket bör inkludera strikt efterlevnad av vanliga branschstandarder som SOC 2 och HIPAA, men bör ocksÄ ha inbyggda processer för partiskhetstestning, redigering av skyddad hÀlsoinformation och datalagring.

Dessa sÀkerhetsÄtgÀrder avgör inte bara om kraven uppfylls. De utgör grunden för ett pÄlitligt system som kan sÀkerstÀlla att varje interaktion hanteras pÄ en nivÄ som patienter och vÄrdgivare förvÀntar sig.

HÀlso- och sjukvÄrdsbranschen behöver inte mer AI-hype. Den behöver en pÄlitlig AI-infrastruktur. NÀr det gÀller agentbaserad AI kommer förtroende inte att förtjÀnas lika mycket som det kommer att konstrueras.

Shyam Rajagopalan Àr medgrundare och teknisk chef för OÀndlighetSom en erfaren och praktiskt engagerad ledare samarbetar Rajagopalan aktivt med sitt team, bidrar till kodning och ger vÀgledning om teknisk design och produktdesign.

Innan han började pÄ Infinitus, designade, byggde och lanserade Rajagopalan som mjukvaruarkitekt mycket sÀkra system med hög datakapacitet för Snap Inc. och Googles inloggnings- och sÀkerhetsplattformar. Han ledde tidigare ingenjörsteamet som chef för teknik pÄ den mobila intelligens-startupen Quettra (förvÀrvat av Similar Web). Rajagopalan började sin karriÀr pÄ MIPS och Nvidia, dÀr han designade och byggde högpresterande processorer.