Verbind je met ons

Gedachte leiders

AI kan vriend of vijand zijn bij het verbeteren van gezondheidsgelijkheid. Hier is hoe u ervoor zorgt dat het helpt, niet schaadt

mm

Ongelijkheden in de gezondheidszorg en verschillen in zorg zijn alomtegenwoordig in sociaaleconomische, raciale en genderverschillen. Als maatschappij hebben we een morele, ethische en economische verantwoordelijkheid om deze kloven te dichten en consistente, eerlijke en betaalbare toegang tot gezondheidszorg voor iedereen te garanderen.

Kunstmatige intelligentie (AI) helpt deze verschillen aan te pakken, maar het is ook een tweesnijdend zwaard. AI helpt zeker al om de zorgverlening te stroomlijnen, gepersonaliseerde geneeskunde op schaal mogelijk te maken en baanbrekende ontdekkingen te ondersteunen. Echter, inherente vooroordelen in de data, algoritmes en gebruikers kunnen het probleem verergeren als we niet voorzichtig zijn.

Dat betekent dat wij, die AI-gestuurde oplossingen voor de gezondheidszorg ontwikkelen en implementeren, voorzichtig moeten zijn om te voorkomen dat AI onbedoeld bestaande verschillen vergroot. Ook moeten bestuursorganen en beroepsverenigingen een actieve rol spelen bij het instellen van maatregelen om vooroordelen te voorkomen of te beperken.

Zo kan het inzetten van AI ongelijkheid verkleinen in plaats van vergroten.

Bereik gelijkheid in klinische proeven

Veel nieuwe medicijn- en behandelingsonderzoeken zijn historisch bevooroordeeld in hun ontwerp, of dat nu opzettelijk was of niet. Bijvoorbeeld, het Pas in 1993 werd het verplicht voor vrouwen wettelijk om te worden opgenomen in door het NIH gefinancierd klinisch onderzoek. Meer recent, COVID-vaccins zijn nooit opzettelijk getest op zwangere vrouwen—we wisten alleen dat het veilig was omdat sommige proefpersonen op het moment van vaccinatie onbewust zwanger waren.

Een uitdaging met onderzoek is dat we niet weten wat we niet weten. Toch helpt AI om bevooroordeelde datasets te ontdekken door bevolkingsgegevens te analyseren en disproportionele representatie of hiaten in demografische dekking te markeren. Door te zorgen voor diverse representatie en AI-modellen te trainen op data die de beoogde populaties nauwkeurig representeren, helpt AI inclusiviteit te garanderen, schade te verminderen en resultaten te optimaliseren.

Zorg voor een eerlijke behandeling

Het is gevestigde dat zwarte aanstaande moeders die pijn en complicaties ervaren tijdens de bevalling vaak worden genegeerd, wat resulteert in een hoog moedersterftecijfer 3x hoger voor zwarte vrouwen dan niet-Spaanstalige blanke vrouwen ongeacht inkomen of opleidingHet probleem wordt grotendeels in stand gehouden door inherente vooroordelen: er heerst een wijdverbreide misvatting onder medische professionals dat Zwarte mensen hebben een hogere pijngrens dan blanke mensen.

Vooroordelen in AI-algoritmen kunnen het probleem verergeren: Harvard-onderzoekers ontdekten dat een algemeen algoritme voorspelde dat zwarte en Latijns-Amerikaanse vrouwen minder kans hadden op een succesvolle vaginale bevalling na een keizersnede (VBAC), wat ertoe kan hebben geleid dat artsen meer keizersneden uitvoeren bij gekleurde vrouwen. Toch ontdekten onderzoekers dat "de associatie niet ondersteund door biologische aannemelijkheid, wat suggereert dat ras "een proxy is voor andere variabelen die het effect van racisme op de gezondheid.” Het algoritme werd later bijgewerkt om ras of etniciteit uit te sluiten bij het berekenen van het risico.

Dit is een perfecte toepassing voor AI om impliciete vooroordelen uit te roeien en (met bewijs) zorgpaden voor te stellen die mogelijk eerder over het hoofd zijn gezien. In plaats van door te gaan met het beoefenen van "standaardzorg", kunnen we AI gebruiken om te bepalen of die beste praktijken zijn gebaseerd op de ervaring van alle vrouwen of alleen op blanke vrouwen. AI helpt ervoor te zorgen dat onze datafundamenten de patiënten omvatten die het meest te winnen hebben bij vooruitgang in gezondheidszorg en technologie.

Hoewel er omstandigheden kunnen zijn waarin ras en etniciteit invloedrijke factoren kunnen zijn, moeten we goed opletten hoe en wanneer we hiermee rekening moeten houden en wanneer we onze percepties en AI-algoritmen niet baseren op historische vooroordelen.

Zorg voor eerlijke preventiestrategieën

AI-oplossingen kunnen bepaalde aandoeningen in gemarginaliseerde gemeenschappen gemakkelijk over het hoofd zien zonder zorgvuldig rekening te houden met mogelijke vooroordelen. Zo werkt de Veterans Administration aan meerdere algoritmen om tekenen van hartziekten en hartaanvallen te voorspellen en te detecteren. Dit heeft een enorm levensreddend potentieel, maar de meeste studies omvatten historisch gezien niet veel vrouwen, voor wie hart- en vaatziekten de belangrijkste doodsoorzaak zijn. Daarom is het onbekend of deze modellen even effectief zijn voor vrouwen, die zich vaak met heel andere symptomen presenteren dan mannen.

Het opnemen van een evenredig aantal vrouwen in deze dataset zou kunnen helpen om een ​​deel van de 3.2 miljoen hartaanvallen en jaarlijks een half miljoen hartgerelateerde sterfgevallen bij vrouwen door vroege detectie en interventie. Op dezelfde manier verwijderen nieuwe AI-tools de op ras gebaseerde algoritmen bij het screenen van nierziekten, die historisch gezien zwarte, Spaanstalige en inheemse Amerikanen uitsloten, wat leidde tot vertragingen in de zorg en slechte klinische resultaten.

In plaats van gemarginaliseerde individuen uit te sluiten, kan AI daadwerkelijk helpen gezondheidsrisico's voor onderbediende bevolkingsgroepen te voorspellen en gepersonaliseerde risicobeoordelingen mogelijk maken om interventies beter te richten. De gegevens zijn er misschien al; het is gewoon een kwestie van het 'afstemmen' van de modellen om te bepalen hoe ras, geslacht en andere demografische factoren de uitkomsten beïnvloeden, als ze dat al doen.

Stroomlijn administratieve taken

Naast het direct beïnvloeden van patiëntresultaten, heeft AI een ongelooflijk potentieel om workflows achter de schermen te versnellen om verschillen te verkleinen. Bedrijven en aanbieders gebruiken AI bijvoorbeeld al om hiaten in de codering en beoordeling van claims op te vullen, diagnosecodes te valideren aan de hand van aantekeningen van artsen en pre-autorisatieprocessen voor veelvoorkomende diagnostische procedures te automatiseren.

Door deze functies te stroomlijnen, kunnen we de bedrijfskosten drastisch verlagen, de praktijken van zorgaanbieders efficiënter laten werken en het personeel meer tijd geven om aan patiënten te besteden. Zo wordt de zorg exponentieel betaalbaarder en toegankelijker.

We hebben allemaal een belangrijke rol te spelen

Het feit dat we deze ongelooflijke tools tot onze beschikking hebben, maakt het nog noodzakelijker dat we ze gebruiken om vooroordelen in de gezondheidszorg uit te roeien en te overwinnen. Helaas is er in de VS geen certificerende instantie die inspanningen reguleert om AI te gebruiken om de levering van gezondheidszorg te "onpartijdig" te maken, en zelfs voor die organisaties die richtlijnen hebben opgesteld, is er geen wettelijke prikkel om zich eraan te houden.

Daarom ligt de verantwoordelijkheid bij ons als AI-beoefenaars, datawetenschappers, algoritmemakers en gebruikers om een ​​bewuste strategie te ontwikkelen om inclusiviteit, diversiteit van data en eerlijk gebruik van deze tools en inzichten te garanderen.

Om dat te doen, zijn nauwkeurige integratie en interoperabiliteit essentieel. Met zoveel databronnen - van wearables en externe lab- en beeldvormingsproviders tot eerstelijnszorg, uitwisseling van gezondheidsinformatie en patiëntendossiers - moeten we al deze data integreren, zodat belangrijke stukken worden opgenomen, ongeacht de opmaak van onze bron. De industrie heeft datanormalisatie, standaardisatie en identiteitsmatching nodig om ervoor te zorgen dat essentiële patiëntgegevens worden opgenomen, zelfs met verschillende naamspellingen of naamgevingsconventies op basis van verschillende culturen en talen.

We moeten ook diversiteitsbeoordelingen inbouwen in ons AI-ontwikkelingsproces en toezicht houden op 'drift' in onze statistieken in de loop van de tijd. AI-beoefenaars hebben de verantwoordelijkheid om de prestaties van het model te testen in demografische subgroepen, bias-audits uit te voeren en te begrijpen hoe het model beslissingen neemt. We moeten mogelijk verder gaan dan op ras gebaseerde aannames om ervoor te zorgen dat onze analyse de populatie vertegenwoordigt waarvoor we deze bouwen. Bijvoorbeeld, leden van de Pima-indianenstam die in het Gila River-reservaat in Arizona wonen, hebben extreem hoge percentages obesitas en diabetes type 2, terwijl leden van dezelfde stam die net over de grens in het Sierra Madre-gebergte van Mexico wonen, veel lagere percentages obesitas en diabetes hebben. Dit bewijst dat genetica niet de enige factor is.

Tot slot hebben we organisaties als de American Medical Association, het Office of the National Coordinator for Health Information Technology en specialistische organisaties als het American College of Obstetrics and Gynecology, de American Academy of Pediatrics, het American College of Cardiology en vele anderen nodig om samen te werken aan het vaststellen van standaarden en kaders voor gegevensuitwisseling en scherpte om vooroordelen te voorkomen.

Door het delen van gezondheidsgegevens te standaardiseren en uit te breiden HTI-1 en HTI-2 om ontwikkelaars te verplichten om met accreditatie-instellingen te werken, helpen we naleving te garanderen en fouten uit het verleden te corrigeren. Verder kunnen we door de toegang tot volledige, nauwkeurige patiëntgegevens te democratiseren, de oogkleppen verwijderen die vooroordelen in stand hebben gehouden en AI gebruiken om zorgverschillen op te lossen door middel van uitgebreidere, objectievere inzichten.

Shelley Wehmeyer is Senior Director, Product en Partners bij Rhapsody. Shelley wijdt haar carrière aan het vereenvoudigen van de complexiteit van de levering van gezondheids- en sociale zorg over de hele wereld met technologie. Of het nu gaat om het navigeren door de vereisten van een nieuwe markt, het lanceren van een nieuw product of het in staat stellen van klantgerichte teams en klanten op het gebied van productstrategie, het meest lonende deel van Shelley's ervaring is het vermogen om cross-functionele, cross-organisationele teams samen te brengen voor een gemeenschappelijk doel: doen wat het beste is voor de patiënt en de clinicus.