stomp Generatieve AI in de gezondheidszorg heeft een dosis uitlegbaarheid nodig - Unite.AI
Verbind je met ons

Gedachte leiders

Generatieve AI in de gezondheidszorg heeft een dosis uitlegbaarheid nodig

mm

gepubliceerd

 on

De opmerkelijke snelheid waarmee op tekst gebaseerde generatieve AI-tools schrijf- en communicatietaken op hoog niveau kunnen voltooien, heeft een gevoelige snaar geraakt bij zowel bedrijven als consumenten. Maar de processen die achter de schermen plaatsvinden om deze indrukwekkende capaciteiten mogelijk te maken, kunnen het riskant maken voor gevoelige, door de overheid gereguleerde sectoren, zoals de verzekeringssector, de financiële sector of de gezondheidszorg, om generatieve AI te benutten zonder grote voorzichtigheid te betrachten.

Enkele van de meest illustratieve voorbeelden hiervan zijn te vinden in de gezondheidszorg.

Dergelijke problemen houden doorgaans verband met de uitgebreide en diverse datasets die worden gebruikt om Large Language Models (LLM’s) te trainen – de modellen die op tekst gebaseerde generatieve AI-tools voeden om taken op hoog niveau uit te voeren. Zonder expliciete tussenkomst van buitenaf van programmeurs hebben deze LLM's de neiging om zonder onderscheid gegevens uit verschillende bronnen op internet te verzamelen om hun kennisbasis uit te breiden.

Deze aanpak is het meest geschikt voor consumentgerichte gebruiksscenario's met een laag risico, waarbij het uiteindelijke doel is om klanten met precisie naar gewenste aanbiedingen te leiden. Maar steeds meer vertroebelen grote datasets en de warrige trajecten waarlangs AI-modellen hun output genereren de uitlegbaarheid die ziekenhuizen en zorgverleners nodig hebben om mogelijke onjuistheden op te sporen en te voorkomen.

In deze context verwijst verklaarbaarheid naar het vermogen om de logische paden van een bepaalde LLM te begrijpen. Zorgprofessionals die ondersteunende generatieve AI-tools willen adopteren, moeten over de middelen beschikken om dit te begrijpen hoe hun modellen leveren resultaten op, zodat patiënten en personeel volledige transparantie krijgen tijdens verschillende besluitvormingsprocessen. Met andere woorden: in een sector als de gezondheidszorg, waar levens op het spel staan, is de inzet simpelweg te hoog voor professionals om de gegevens die worden gebruikt om hun AI-tools te trainen verkeerd te interpreteren.

Gelukkig is er een manier om het verklaarbaarheidsraadsel van generatieve AI te omzeilen; het vereist alleen wat meer controle en focus.

Mysterie en scepticisme

Bij generatieve AI is het concept van het begrijpen hoe een LLM van punt A – de input – naar punt B – de output – komt veel complexer dan bij niet-generatieve algoritmen die volgens meer vaste patronen lopen.

Generatieve AI-tools maken talloze verbindingen terwijl ze van input naar output gaan, maar voor de waarnemer van buitenaf blijft het hoe en waarom ze een bepaalde reeks verbindingen maken een mysterie. Zonder een manier om het ‘denkproces’ dat een AI-algoritme doorloopt te zien, ontberen menselijke operators een grondige manier om de redenering ervan te onderzoeken en potentiële onnauwkeurigheden op te sporen.

Bovendien compliceren de voortdurend groeiende datasets die door ML-algoritmen worden gebruikt de verklaarbaarheid nog verder. Hoe groter de dataset, hoe waarschijnlijker het is dat het systeem leert van zowel relevante als irrelevante informatie en ‘AI-hallucinaties’ uitspuwt – onwaarheden die afwijken van externe feiten en contextuele logica, hoe overtuigend ook.

In de gezondheidszorg kunnen dit soort gebrekkige uitkomsten een hele reeks problemen veroorzaken, zoals verkeerde diagnoses en onjuiste recepten. Afgezien van de ethische, juridische en financiële gevolgen kunnen dergelijke fouten gemakkelijk de reputatie van de gezondheidszorgaanbieders en de medische instellingen die zij vertegenwoordigen schaden.

Dus ondanks het potentieel om medische interventies te verbeteren, de communicatie met patiënten te verbeteren en de operationele efficiëntie te vergroten, blijft generatieve AI in de gezondheidszorg gehuld in scepsis, en terecht: 55% van de artsen gelooft niet dat het apparaat klaar is voor medisch gebruik en 58% wantrouwt het geheel. Toch zijn zorgorganisaties dat wel vooruit duwen, waarbij 98% een generatieve AI-implementatiestrategie integreert of plant in een poging de impact van het aanhoudende tekort aan arbeidskrachten in de sector te compenseren.

Beheers de bron

De gezondheidszorgsector zit vaak op de hielen in het huidige consumentenklimaat, dat efficiëntie en snelheid belangrijker vindt dan het garanderen van ijzersterke veiligheidsmaatregelen. Recent nieuws rond de valkuilen van het vrijwel onbeperkte gegevensschrapen voor het trainen van LLM's, wat heeft geleid tot rechtszaken wegens inbreuk op het auteursrecht, heeft deze kwesties op de voorgrond gebracht. Sommige bedrijven worden ook geconfronteerd met beweringen dat de persoonlijke gegevens van burgers zijn verzameld om deze taalmodellen te trainen, wat mogelijk in strijd is met de privacywetten.

AI-ontwikkelaars voor sterk gereguleerde industrieën moeten daarom controle uitoefenen over gegevensbronnen om potentiële fouten te beperken. Dat wil zeggen dat u prioriteit moet geven aan het extraheren van gegevens uit vertrouwde, door de industrie doorgelichte bronnen, in plaats van het lukraak en zonder uitdrukkelijke toestemming verwijderen van externe webpagina's. Voor de gezondheidszorg betekent dit het beperken van de gegevensinvoer tot FAQ-pagina's, CSV-bestanden en medische databases – naast andere interne bronnen.

Als dit enigszins beperkend klinkt, probeer dan een dienst te zoeken op de website van een groot gezondheidszorgsysteem. Amerikaanse gezondheidszorgorganisaties publiceren honderden, zo niet duizenden informatiepagina's op hun platforms; de meeste zijn zo diep begraven dat patiënten er nooit daadwerkelijk toegang toe hebben. Generatieve AI-oplossingen op basis van interne gegevens kunnen deze informatie gemakkelijk en naadloos aan patiënten leveren. Dit is een win-winsituatie voor alle partijen, aangezien het gezondheidszorgsysteem eindelijk ROI uit deze inhoud haalt en de patiënten direct en moeiteloos de diensten kunnen vinden die ze nodig hebben.

Wat is de toekomst voor generatieve AI in gereguleerde industrieën?

De gezondheidszorgsector kan op een aantal manieren profiteren van generatieve AI.

Denk bijvoorbeeld eens aan de wijdverbreide burn-out die de Amerikaanse gezondheidszorgsector de laatste tijd teistert. bijna 50% Verwacht wordt dat in 2025 een deel van de beroepsbevolking zal stoppen. Generatieve AI-aangedreven chatbots kunnen helpen een groot deel van de werkdruk te verlichten en overbelaste patiëntentoegangsteams in stand te houden.

Aan de patiëntenkant heeft generatieve AI het potentieel om de callcenterdiensten van zorgaanbieders te verbeteren. AI-automatisering heeft de kracht om een ​​breed scala aan vragen te beantwoorden via verschillende contactkanalen, waaronder veelgestelde vragen, IT-problemen, farmaceutische navullingen en verwijzingen van artsen. Afgezien van de frustratie die gepaard gaat met wachten in de wacht, alleen ongeveer de helft van de Amerikaanse patiënten lost hun problemen met succes op bij hun eerste telefoontje, wat resulteert in hoge verlatingspercentages en verminderde toegang tot zorg. De daaruit voortvloeiende lage klanttevredenheid zorgt voor een verdere druk op de sector om in actie te komen.

Als de sector echt wil profiteren van de implementatie van generatieve AI, moeten zorgaanbieders de opzettelijke herstructurering van de gegevens waartoe hun LLM’s toegang hebben, faciliteren.

Israël is hyro'CEO en mede-oprichter. Israël begint zijn professionele carrière als inlichtingenofficier in de beroemde Eenheid 8200 van de IDF en is een geboren leider die zijn teams door schijnbaar onoverkomelijke uitdagingen heen duwt en hen ertoe aanzet om resultaten te leveren die verwachtingen tarten. Israëls grootste liefde (na zijn vrouw en drie kinderen) is uitstekende koffie, die dient als vliegtuigbrandstof voor zijn meer dan levensgrote ambities.