csonk Ki a felelős, ha az egészségügyi mesterséges intelligencia sikertelen? - Egyesüljetek.AI
Kapcsolatba velünk

Egészségügy

Ki a felelős, ha az egészségügyi mesterséges intelligencia sikertelen?

mm

Közzététel:

 on

Ki a felelős, ha a mesterséges intelligencia hibái az egészségügyben baleseteket, sérüléseket vagy még rosszabbat okoznak? A helyzettől függően ez lehet a mesterséges intelligencia fejlesztője, egészségügyi szakember vagy akár a páciens is. A felelősség egyre összetettebb és komolyabb probléma, ahogy a mesterséges intelligencia egyre gyakoribb az egészségügyben. Ki a felelős azért, hogy mesterséges intelligencia hibázott, és hogyan előzhetők meg a balesetek?

A mesterséges intelligencia hibáinak kockázata az egészségügyben

A mesterséges intelligencia számos elképesztő előnnyel jár az egészségügyben, a nagyobb precizitástól és pontosságtól a gyorsabb felépülésig. A mesterséges intelligencia segíti az orvosokat a diagnózis felállításában, a műtétek elvégzésében és a lehető legjobb ellátásban. Sajnos az AI hibák mindig fennállnak.

Az egészségügyben a mesterséges intelligencia elromlott forgatókönyveinek széles skálája létezik. Az orvosok és a betegek az AI-t pusztán szoftver-alapú döntéshozatali eszközként használhatják, vagy a mesterséges intelligencia lehet fizikai eszközök, például robotok agya. Mindkét kategóriának megvannak a maga kockázatai.

Például mi történik, ha egy mesterséges intelligencia által hajtott sebészeti robot meghibásodik egy eljárás során? Ez súlyos sérülést okozhat, vagy akár a beteg halálát is okozhatja. Hasonlóképpen, mi van akkor, ha egy gyógyszerdiagnosztikai algoritmus rossz gyógyszert ajánl a páciensnek, és negatív mellékhatást szenved? Még ha a gyógyszer nem is árt a betegnek, a téves diagnózis késleltetheti a megfelelő kezelést.

Az ehhez hasonló AI-hibák gyökere maguknak az AI-modelleknek a természetében rejlik. A legtöbb mesterséges intelligencia manapság „fekete doboz” logikát használ, ami azt jelenti, hogy senki sem láthatja, hogyan hoz döntéseket az algoritmus. A fekete doboz mesterséges intelligencia nem átlátható, olyan kockázatokhoz vezet, mint a logikai torzítás, diszkrimináció és pontatlan eredmények. Sajnos ezeket a kockázati tényezőket nehéz felismerni, amíg már nem okoztak problémákat.

Rossz az AI: ki a hibás?

Mi történik, ha egy mesterséges intelligencia által hajtott orvosi eljárás során baleset történik? Az AI elhibázottságának lehetősége bizonyos mértékig mindig benne lesz a kártyákban. Ha valaki megsérül, vagy még rosszabb, az MI a hibás? Nem feltétlenül.

Amikor az AI-fejlesztő hibás

Fontos megjegyezni, hogy az AI nem más, mint egy számítógépes program. Ez egy rendkívül fejlett számítógépes program, de még mindig kód, mint bármely más szoftver. Mivel a mesterséges intelligencia nem érző vagy független, mint az ember, nem tehető felelőssé a balesetekért. Egy mesterséges intelligencia nem fordulhat bírósághoz, és nem ítélhetik börtönbüntetésre.

Az egészségügyi ellátásban előforduló mesterséges intelligencia hibái nagy valószínűséggel a mesterséges intelligencia fejlesztőjének vagy az eljárást felügyelő egészségügyi szakembernek a felelőssége. Az, hogy melyik fél hibás a balesetben, esetenként változhat.

Például valószínűleg a fejlesztő lenne a hibás, ha az adatok torzítása miatt a mesterséges intelligencia igazságtalan, pontatlan vagy diszkriminatív döntéseket vagy bánásmódot hozna. A fejlesztő felelős azért, hogy a mesterséges intelligencia az ígéretek szerint működjön, és minden páciensnek a lehető legjobb kezelést nyújtja. Ha a mesterséges intelligencia hibásan működik a fejlesztő gondatlansága, felügyelete vagy hibája miatt, az orvos nem vállal felelősséget.

Ha az orvos vagy az orvos hibás

Azonban továbbra is lehetséges, hogy az orvos vagy akár a beteg is felelős a mesterséges intelligencia hibájáért. Például előfordulhat, hogy a fejlesztő mindent jól csinál, alapos utasításokat ad az orvosnak, és felvázolja az összes lehetséges kockázatot. Amikor eljön az eljárás ideje, az orvos zavart, fáradt, feledékeny vagy egyszerűen hanyag lehet.

Felmérések mutatják az orvosok több mint 40%-a munkahelyi kiégést tapasztal, ami figyelmetlenséghez, lassú reflexekhez és rossz emlékezéshez vezethet. Ha az orvos nem foglalkozik saját testi és lelki szükségleteivel, és állapotuk balesetet okoz, az az orvos hibája.

A körülményektől függően végső soron az orvos munkaadóját lehet hibáztatni az egészségügyben elkövetett mesterséges intelligencia hibáiért. Például mi van akkor, ha egy kórház vezetője azzal fenyegetőzik, hogy megtagadja az orvos előléptetését, ha nem vállalja a túlórázást? Ez arra kényszeríti őket, hogy túlterheljék magukat, ami kiégéshez vezet. Valószínűleg az orvos munkáltatóját vonják felelősségre egy ilyen egyedi helyzetben. 

Amikor a beteg a hibás

Mi van akkor, ha mind az AI-fejlesztő, mind az orvos mindent jól csinál? Ha a páciens önállóan használ mesterségesintelligencia-eszközt, egy baleset lehet az ő hibája. A mesterséges intelligencia elromlása nem mindig technikai hiba következménye. Ez lehet rossz vagy nem megfelelő használat eredménye is.

Például előfordulhat, hogy egy orvos alaposan elmagyaráz egy mesterséges intelligencia eszközt a páciensének, de figyelmen kívül hagyja a biztonsági utasításokat, vagy helytelen adatokat ad meg. Ha ez a gondatlan vagy helytelen használat balesethez vezet, az a beteg hibája. Ebben az esetben ők voltak felelősek a mesterséges intelligencia helyes használatáért vagy a pontos adatok megadásáért, és ezt elhanyagolták.

Még akkor is, ha a betegek ismerik egészségügyi szükségleteiket, előfordulhat, hogy különböző okok miatt nem követik az orvos utasításait. Például, Az amerikaiak 24%-a szed vényköteles gyógyszereket beszámoltak arról, hogy nehézségeik vannak a gyógyszereik fizetésével. Előfordulhat, hogy a beteg kihagyja a gyógyszert, vagy hazudhat egy MI-nek, hogy beveszi, mert zavarban van amiatt, hogy nem tudja kifizetni a receptjét.

Ha a beteg nem megfelelő használatának oka az orvos vagy a mesterséges intelligencia fejlesztője által adott útmutatás hiánya, akkor máshol lehet a hibás. Ez végső soron attól függ, hogy hol történt a gyökérbaleset vagy hiba.

Szabályok és lehetséges megoldások

Van mód a mesterséges intelligencia hibáinak megelőzésére az egészségügyben? Bár egyetlen orvosi eljárás sem teljesen kockázatmentes, vannak módok a káros következmények valószínűségének minimalizálására.

A mesterséges intelligencia egészségügyi ellátására vonatkozó szabályozások megóvhatják a betegeket a magas kockázatú mesterséges intelligencia által működtetett eszközöktől és eljárásoktól. Az FDA már megtette az AI orvostechnikai eszközök szabályozási kereteit, amely felvázolja a tesztelési és biztonsági követelményeket, valamint a felülvizsgálati folyamatot. Vezető egészségügyi felügyeleti szervezetek is közbeléphetnek a betegadatok mesterséges intelligencia-algoritmusokkal történő szabályozása érdekében a következő években.

A szigorú, ésszerű és alapos szabályozás mellett a fejlesztőknek lépéseket kell tenniük a mesterséges intelligencia rossz forgatókönyveinek megelőzésére. A megmagyarázható mesterséges intelligencia – más néven fehér dobozos mesterségesintelligencia – megoldhatja az átláthatósággal és az adatok torzításával kapcsolatos aggályokat. A megmagyarázható AI-modellek olyan feltörekvő algoritmusok, amelyek lehetővé teszik a fejlesztők és a felhasználók számára, hogy hozzáférjenek a modell logikájához.

Amikor a mesterséges intelligencia fejlesztői, az orvosok és a betegek láthatják, hogyan jut el a mesterséges intelligencia következtetéseihez, sokkal könnyebb azonosítani az adatok torzítását. Az orvosok gyorsabban észlelhetik a ténybeli pontatlanságokat vagy a hiányzó információkat. A magyarázható mesterséges intelligencia használatával a fekete doboz AI helyett a fejlesztők és az egészségügyi szolgáltatók növelhetik az orvosi mesterséges intelligencia megbízhatóságát és hatékonyságát.

Biztonságos és hatékony egészségügyi AI

A mesterséges intelligencia csodálatos dolgokra képes az orvosi területen, akár életeket is megmenthet. Az AI-val kapcsolatban mindig lesz némi bizonytalanság, de a fejlesztők és az egészségügyi szervezetek tehetnek lépéseket e kockázatok minimalizálása érdekében. Amikor mesterséges intelligencia hibázik az egészségügyben, a jogi tanácsadók valószínűleg a baleset alaphibája alapján határozzák meg a felelősséget.

Zac Amos technológiai író, aki a mesterséges intelligenciára összpontosít. Ő egyben a szolgáltatások szerkesztője is ReHack, ahol további munkáiról olvashat.