Kontakt med oss

Tankeledere

Utnyttelse av kunstig intelligens for en sunnere verden: Sikre at kunstig intelligens forbedrer, ikke undergraver, pasientbehandling

mm

I århundrer har medisin blitt formet av ny teknologi. Fra stetoskopet til MR-apparater har innovasjon forvandlet måten vi diagnostiserer, behandler og tar vare på pasienter på. Likevel har hvert sprang fremover blitt møtt med spørsmål: Vil denne teknologien virkelig tjene pasienter? Kan den stoles på? Og hva skjer når effektivitet prioriteres fremfor empati?

Kunstig intelligens (KI) er den nyeste utviklingen i denne pågående utviklingen. Den har potensial til å forbedre diagnostikk, optimalisere arbeidsflyter og utvide tilgangen til behandling. Men KI er ikke immun mot de samme grunnleggende spørsmålene som har fulgt alle medisinske fremskritt før den.

Bekymringen er ikke om KI vil forandre helsen – det gjør den allerede. Spørsmålet er om den vil forbedre pasientbehandlingen eller skape nye risikoer som undergraver den. Svaret avhenger av implementeringsvalgene vi tar i dag. Etter hvert som KI blir mer integrert i helseøkosystemer, er ansvarlig styring fortsatt avgjørende. Å sikre at KI forbedrer snarere enn å undergrave pasientbehandlingen krever en nøye balanse mellom innovasjon, regulering og etisk tilsyn.

Håndtering av etiske dilemmaer i AI-drevne helseteknologier 

Myndigheter og reguleringsorganer erkjenner i økende grad viktigheten av å ligge i forkant av den raske utviklingen innen kunstig intelligens. Diskusjoner på Prince Mahidol-priskonferansen (PMAC) i Bangkok understreket nødvendigheten av resultatbaserte, tilpasningsdyktige reguleringer som kan utvikles sammen med nye AI-teknologier. Uten proaktiv styring er det en risiko for at AI kan forverre eksisterende ulikheter eller introdusere nye former for skjevhet i helsetilbudet. Etiske bekymringer rundt åpenhet, ansvarlighet og rettferdighet må tas opp.

En stor utfordring er mangelen på forståelighet i mange AI-modeller – som ofte fungerer som «svarte bokser” som genererer anbefalinger uten klare forklaringer. Hvis en kliniker ikke fullt ut kan forstå hvordan et AI-system kommer frem til en diagnose eller behandlingsplan, bør det da stole på? Denne uklarheten reiser grunnleggende spørsmål om ansvar: Hvis en AI-drevet beslutning fører til skade, hvem er ansvarlig – legen, sykehuset eller teknologiutvikleren? Uten tydelig styring kan ikke dyp tillit til AI-drevet helsetjenester slå rot.

Et annet presserende problem er skjevhet fra KI og bekymringer knyttet til personvern. KI-systemer er avhengige av enorme datasett, men hvis disse dataene er ufullstendige eller ikke representative, kan algoritmer forsterke eksisterende forskjeller i stedet for å redusere dem. I tillegg til dette, i helsevesenet, hvor data gjenspeiler dypt personlig informasjon, er det avgjørende å ivareta personvernet. Uten tilstrekkelig tilsyn kan KI utilsiktet forverre ulikheter i stedet for å skape mer rettferdige og tilgjengelige systemer.

En lovende tilnærming til å håndtere etiske dilemmaer er regulatoriske sandkasser, som gjør det mulig å teste AI-teknologier i kontrollerte miljøer før full utrulling. Disse rammeverkene bidrar til å forbedre AI-applikasjoner, redusere risikoer og bygge tillit blant interessenter, og sikrer at pasienters velvære forblir den sentrale prioriteten. I tillegg gir regulatoriske sandkasser muligheten for kontinuerlig overvåking og justeringer i sanntid, slik at regulatorer og utviklere kan identifisere potensielle skjevheter, utilsiktede konsekvenser eller sårbarheter tidlig i prosessen. I hovedsak legger det til rette for en dynamisk, iterativ tilnærming som muliggjør innovasjon samtidig som den forbedrer ansvarligheten.

Bevare rollen til menneskelig intelligens og empati

Utover diagnostikk og behandling har menneskelig tilstedeværelse i seg selv terapeutisk verdi. Et beroligende ord, et øyeblikk med ekte forståelse eller en medfølende berøring kan lindre angst og forbedre pasientens velvære på måter teknologien ikke kan gjenskape. Helsevesen er mer enn en rekke kliniske avgjørelser – det er bygget på tillit, empati og personlig tilknytning.

Effektiv pasientbehandling innebærer samtaler, ikke bare beregninger. Hvis AI-systemer reduserer pasienter til datapunkter i stedet for individer med unike behov, mislykkes teknologien i sitt mest grunnleggende formål. Bekymringer rundt AI-drevet beslutningstaking øker, spesielt når det gjelder forsikringsdekning. I California er nesten en kvartal av helseforsikringskrav ble avvist i fjor, en trend som er sett over hele landet. En ny lov forbyr nå forsikringsselskaper å bruke AI alene for å nekte dekning, og sikrer at menneskelig vurdering er sentralt. Denne debatten intensiverte seg med et søksmål mot UnitedHealthcare, der de påstod at deres AI-verktøy, nH Predict, feilaktig avviste krav for eldre pasienter, med en feilrate på 90 %. Disse sakene understreker behovet for at AI skal utfylle, ikke erstatte, menneskelig ekspertise i klinisk beslutningstaking, og viktigheten av robust tilsyn.

Målet bør ikke være å erstatte klinikere med kunstig intelligens, men å styrke dem. Kunstig intelligens kan øke effektiviteten og gi verdifull innsikt, men menneskelig vurderingsevne sikrer at disse verktøyene tjener pasienter snarere enn diktere behandling. Medisin er sjelden svart-hvitt – begrensninger i den virkelige verden, pasientverdier og etiske hensyn former enhver beslutning. Kunstig intelligens kan informere disse beslutningene, men det er menneskelig intelligens og medfølelse som gjør helsetjenester virkelig pasientsentrerte.

Kan kunstig intelligens gjøre helsevesenet menneskelig igjen? Godt spørsmål. Selv om AI kan håndtere administrative oppgaver, analysere komplekse data og gi kontinuerlig støtte, ligger kjernen i helsevesenet i menneskelig samhandling – lytting, empati og forståelse. AI mangler i dag de menneskelige egenskapene som er nødvendige for helhetlig, pasientsentrert behandling, og helsebeslutninger er preget av nyanser. Leger må veie medisinsk bevis, pasientverdier, etiske hensyn og begrensninger i den virkelige verden for å ta de beste avgjørelsene. Det AI kan gjøre er å frita dem fra hverdagslige rutineoppgaver, slik at de får mer tid til å fokusere på det de gjør best.

Hvor autonom bør kunstig intelligens være innen helse?

AI og menneskelig ekspertise spiller begge viktige roller på tvers av helsesektorer, og nøkkelen til effektiv pasientbehandling ligger i å balansere styrkene deres. Selv om AI forbedrer presisjon, diagnostikk, risikovurderinger og driftseffektivitet, er menneskelig tilsyn fortsatt helt avgjørende. Målet er tross alt ikke å erstatte klinikere, men å sikre at AI fungerer som et verktøy som opprettholder etisk, transparent og pasientsentrert helsehjelp.

Derfor må AIs rolle i klinisk beslutningstaking defineres nøye, og graden av autonomi som gis til AI innen helsevesenet bør evalueres grundig. Bør AI noen gang ta endelige behandlingsbeslutninger, eller bør dens rolle være utelukkende støttende?Å definere disse grensene nå er avgjørende for å forhindre overdreven avhengighet av AI, som kan svekke klinisk dømmekraft og profesjonelt ansvar i fremtiden.

Offentlig oppfatning har også en tendens til å heller mot en slik forsiktig tilnærming. BMC medisinsk etikkstudie fant at pasienter er mer komfortable med AI bistå snarere enn å erstatte helsepersonell, spesielt i kliniske oppgaver. Selv om mange synes KI er akseptabelt for administrative funksjoner og beslutningsstøtte, er det fortsatt bekymring for dens innvirkning på lege-pasient-forhold. Vi må også ta i betraktning at tilliten til KI varierer på tvers av demografiske grupper – yngre, utdannede individer, spesielt menn, har en tendens til å være mer aksepterende, mens eldre voksne og kvinner uttrykker mer skepsis. En vanlig bekymring er tapet av den «menneskelige kontakten» i omsorgsleveringen.

Diskusjoner på AI Action Summit i Paris forsterket viktigheten av styringsstrukturer som sikrer at KI forblir et verktøy for klinikere snarere enn en erstatning for menneskelig beslutningstaking. Å opprettholde tilliten til helsevesenet krever bevisst oppmerksomhet, slik at KI forbedrer, snarere enn å undergrave, de essensielle menneskelige elementene i medisinen.

Etablere de riktige sikkerhetstiltakene fra starten av 

For å gjøre KI til en verdifull ressurs innen helsevesenet, må de riktige sikkerhetstiltakene bygges fra grunnen av. Kjernen i denne tilnærmingen er forklarbarhet. Utviklere bør være pålagt å demonstrere hvordan KI-modellene deres fungerer – ikke bare for å oppfylle regulatoriske standarder, men for å sikre at klinikere og pasienter kan stole på og forstå KI-drevne anbefalinger. Grundig testing og validering er avgjørende for å sikre at KI-systemer er trygge, effektive og rettferdige. Dette inkluderer stresstesting i den virkelige verden for å identifisere potensielle skjevheter og forhindre utilsiktede konsekvenser før utbredt bruk.

Teknologi som er utviklet uten innspill fra de den påvirker, vil sannsynligvis ikke tjene dem godt. For å behandle mennesker som mer enn summen av deres medisinske journaler, må den fremme medfølende, personlig og helhetlig behandling. For å sikre at KI gjenspeiler praktiske behov og etiske hensyn, må et bredt spekter av stemmer – inkludert pasienter, helsepersonell og etikere – inkluderes i utviklingen. Det er nødvendig å lære opp klinikere til å se kritisk på KI-anbefalinger, til fordel for alle involverte parter.

Robuste rekkverk bør etableres for å hindre at AI prioriterer effektivitet på bekostning av behandlingskvalitet. I tillegg er kontinuerlige revisjoner avgjørende for å sikre at AI-systemer opprettholder de høyeste standardene for behandling og er i tråd med pasientfokuserte prinsipper. Ved å balansere innovasjon med tilsyn kan AI styrke helsesystemer og fremme global helserettferdighet.

Konklusjon  

Etter hvert som AI fortsetter å utvikle seg, må helsesektoren finne en hårfin balanse mellom teknologisk innovasjon og menneskelig kontakt. Fremtiden trenger ikke å velge mellom AI og menneskelig medfølelse. I stedet må de to utfylle hverandre og skape et helsevesen som er både effektivt og dypt pasientsentrert. Ved å omfavne både teknologisk innovasjon og kjerneverdiene empati og menneskelig kontakt, kan vi sikre at AI fungerer som en transformerende kraft for det gode i global helsevesen.

Veien videre krever imidlertid samarbeid på tvers av sektorer – mellom beslutningstakere, utviklere, helsepersonell og pasienter. Gjennomsiktig regulering, etisk implementering og kontinuerlig menneskelig intervensjon er nøkkelen til å sikre at AI fungerer som et verktøy som styrker helsesystemer og fremmer global helserettferdighet.

Dr. Ricardo Baptista Leite er lege og global helseforkjemper med bakgrunn innen infeksjonssykdommer og over 15 års erfaring innen helsepolitikk. Han er administrerende direktør i HealthAI og grunnlegger av UNITE Parliamentarians Network. Han er en tidligere portugisisk parlamentsmedlem og har tjenestegjort i frontlinjen under både COVID-19-pandemien og krigen i Ukraina. Ricardo har mastergrader fra Johns Hopkins og Harvard, og leder for tiden globale helseprogrammer ved Harvard-Charité og NOVA University.