Connect with us

Gezondheidszorg

Wie Is Verantwoordelijk Als Healthcare AI Faalt?

mm

Wie is verantwoordelijk wanneer AI-fouten in de gezondheidszorg ongelukken, verwondingen of erger veroorzaken? Afhankelijk van de situatie kan het de AI-ontwikkelaar, een gezondheidsprofessional of zelfs de patiënt zijn. Aansprakelijkheid is een steeds complexer en serieuzer probleem naarmate AI meer wordt gebruikt in de gezondheidszorg. Wie is verantwoordelijk voor AI die verkeerd gaat en hoe kunnen ongelukken worden voorkomen?

Het Risico Van AI-fouten In De Gezondheidszorg

Er zijn veel geweldige voordelen van AI in de gezondheidszorg, van verhoogde precisie en nauwkeurigheid tot snellere hersteltijden. AI helpt artsen bij het stellen van diagnoses, het uitvoeren van operaties en het bieden van de beste mogelijke zorg voor hun patiënten. Helaas zijn AI-fouten altijd een mogelijkheid.

Er zijn veel verschillende scenario’s waarin AI in de gezondheidszorg verkeerd kan gaan. Artsten en patiënten kunnen AI gebruiken als een puur software-gebaseerd beslissingshulpmiddel of AI kan de hersenen zijn van fysieke apparaten zoals robots. Beide categorieën hebben hun risico’s.

Wat gebeurt er bijvoorbeeld als een AI-gecontroleerde operatierobot tijdens een procedure faalt? Dit kan een ernstig letsel veroorzaken of mogelijk zelfs de dood van de patiënt. Wat als een medicijndiagnosealgoritme de verkeerde medicatie aan een patiënt aanbeveelt en hij een negatief bijwerking ondervindt? Zelfs als de medicatie de patiënt niet schaadt, kan een verkeerde diagnose de juiste behandeling vertragen.

Aan de basis van AI-fouten zoals deze ligt de aard van AI-modellen zelf. De meeste AI van vandaag gebruiken “black box”-logica, wat betekent dat niemand kan zien hoe het algoritme beslissingen neemt. Black box AI ontbreekt transparantie, leidend tot risico’s zoals logische vooroordelen, discriminatie en onnauwkeurige resultaten. Helaas is het moeilijk om deze risicofactoren te detecteren totdat ze al problemen hebben veroorzaakt.

AI Gone Wrong: Wie Is De Schuldige?

Wat gebeurt er als er een ongeluk gebeurt tijdens een AI-gecontroleerde medische procedure? De mogelijkheid van AI die verkeerd gaat, zal altijd aanwezig zijn tot op zekere hoogte. Als iemand gewond raakt of erger, is de AI dan de schuldige? Niet noodzakelijkerwijs.

Wanneer De AI-ontwikkelaar De Schuldige Is

Het is belangrijk om te onthouden dat AI niets meer is dan een computerprogramma. Het is een zeer geavanceerd computerprogramma, maar het is nog steeds code, net als elk ander stuk software. Aangezien AI niet zelfstandig of onafhankelijk is als een mens, kan het niet aansprakelijk worden gesteld voor ongelukken. Een AI kan niet naar de rechter gaan of naar de gevangenis worden gestuurd.

AI-fouten in de gezondheidszorg zouden meestal de verantwoordelijkheid zijn van de AI-ontwikkelaar of de medische professional die de procedure controleert. Welke partij verantwoordelijk is voor een ongeluk, kan variëren van geval tot geval.

Bijvoorbeeld, de ontwikkelaar zou waarschijnlijk verantwoordelijk zijn als gegevensvooroordeel ertoe leidt dat een AI oneerlijke, onnauwkeurige of discriminerende beslissingen of behandelingen neemt. De ontwikkelaar is verantwoordelijk voor het ervoor zorgen dat de AI werkt zoals beloofd en alle patiënten de beste behandeling mogelijk geeft. Als de AI door nalatigheid, veronachtzaming of fouten van de ontwikkelaar faalt, is de arts niet aansprakelijk.

Wanneer De Arts Of Verpleegkundige De Schuldige Is

Het is echter ook mogelijk dat de arts of zelfs de patiënt verantwoordelijk is voor AI die verkeerd gaat. Bijvoorbeeld, de ontwikkelaar doet alles goed, geeft de arts uitgebreide instructies en schetst alle mogelijke risico’s. Wanneer het tijd is voor de procedure, kan de arts afgeleid, moe, vergetelijk of gewoon nalatig zijn.

Enquêtes laten zien dat meer dan 40% van de artsen burn-out ervaren op het werk, wat kan leiden tot afleiding, langzame reflexen en slecht geheugen. Als de arts zijn eigen fysieke en psychologische behoeften niet aanpakt en zijn toestand een ongeluk veroorzaakt, is dat de schuld van de arts.

Afhangend van de omstandigheden, kan de werkgever van de arts uiteindelijk de schuld krijgen van AI-fouten in de gezondheidszorg. Bijvoorbeeld, wat als een manager in een ziekenhuis een arts dreigt te weigeren een promotie als hij niet akkoord gaat met overwerk? Dit dwingt de arts om te veel te werken, wat leidt tot burn-out. De werkgever van de arts zou waarschijnlijk verantwoordelijk worden gesteld in een dergelijke situatie.

Wanneer De Patiënt De Schuldige Is

Wat als zowel de AI-ontwikkelaar als de arts alles goed doen? Als de patiënt onafhankelijk een AI-hulpmiddel gebruikt, kan een ongeluk de schuld van de patiënt zijn. AI die verkeerd gaat, is niet altijd het gevolg van een technische fout. Het kan ook het resultaat zijn van slecht of onjuist gebruik.

Bijvoorbeeld, misschien legt een arts een AI-hulpmiddel grondig uit aan zijn patiënt, maar de patiënt negeert veiligheidsinstructies of voert onjuiste gegevens in. Als dit zorgeloze of onjuiste gebruik resulteert in een ongeluk, is het de schuld van de patiënt. In dit geval was de patiënt verantwoordelijk voor het juiste gebruik van de AI of het verstrekken van nauwkeurige gegevens en heeft dit nagelaten.

Zelfs als patiënten hun medische behoeften kennen, kunnen ze de instructies van een arts niet volgen om verschillende redenen. Bijvoorbeeld, 24% van de Amerikanen die voorgeschreven medicijnen nemen, melden dat het moeilijk is om hun medicijnen te betalen. Een patiënt kan medicijnen overslaan of tegen een AI liegen over het nemen van een medicijn omdat hij zich schaamt voor het niet kunnen betalen van zijn voorschrift.

Als het onjuiste gebruik van de patiënt te wijten was aan een gebrek aan richtlijnen van de arts of de AI-ontwikkelaar, kan de schuld elders liggen. Het hangt uiteindelijk af van waar de oorsprong van het ongeluk of de fout ligt.

Regelgeving En Mogelijke Oplossingen

Is er een manier om AI-fouten in de gezondheidszorg te voorkomen? Hoewel geen enkele medische procedure volledig risicovrij is, zijn er manieren om de kans op ongunstige resultaten te minimaliseren.

Regelgeving met betrekking tot het gebruik van AI in de gezondheidszorg kan patiënten beschermen tegen AI-gecontroleerde hulpmiddelen en procedures met hoge risico’s. De FDA heeft regelgevingskaders voor AI-medische apparaten, waarin test- en veiligheidsvereisten en het beoordelingsproces worden uitgestippeld. Leidende medische toezichthoudende organisaties kunnen in de komende jaren ook ingrijpen om het gebruik van patiëntgegevens met AI-algoritmen te reguleren.

Naast strikte, redelijke en grondige regelgeving, moeten ontwikkelaars stappen nemen om scenario’s met AI die verkeerd gaat, te voorkomen. Verklaarbare AI — ook bekend als white box AI — kan transparantie- en gegevensvooroordeelproblemen oplossen. Verklaarbare AI-modellen zijn opkomende algoritmen die ontwikkelaars en gebruikers toelaten om de logica van het model te bekijken.

Wanneer AI-ontwikkelaars, artsen en patiënten kunnen zien hoe een AI tot zijn conclusies komt, is het veel gemakkelijker om gegevensvooroordeel te identificeren. Artsten kunnen ook feitelijke onnauwkeurigheden of ontbrekende informatie sneller opvangen. Door gebruik te maken van verklaarbare AI in plaats van black box AI, kunnen ontwikkelaars en zorgverleners de betrouwbaarheid en effectiviteit van medische AI verhogen.

Veilige En Effectieve Healthcare AI

Kunstmatige intelligentie kan geweldige dingen doen in het medische veld, mogelijk zelfs levens redden. Er zal altijd enige onzekerheid verbonden zijn aan AI, maar ontwikkelaars en zorginstellingen kunnen actie ondernemen om deze risico’s te minimaliseren. Wanneer AI-fouten in de gezondheidszorg optreden, zullen juridische adviseurs waarschijnlijk de aansprakelijkheid bepalen op basis van de oorsprong van de fout.

Zac Amos is een tech-schrijver die zich richt op kunstmatige intelligentie. Hij is ook de Features Editor bij ReHack, waar u meer van zijn werk kunt lezen.