Seguici sui social

L'intelligenza artificiale può essere amica o nemica nel migliorare l'equità sanitaria. Ecco come assicurarsi che aiuti, non danneggi

Leader del pensiero

L'intelligenza artificiale può essere amica o nemica nel migliorare l'equità sanitaria. Ecco come assicurarsi che aiuti, non danneggi

mm

Le disuguaglianze e le disparità nell'assistenza sanitaria sono diffuse in tutte le divisioni socioeconomiche, razziali e di genere. Come società, abbiamo la responsabilità morale, etica ed economica di colmare queste lacune e garantire un accesso coerente, equo e conveniente all'assistenza sanitaria per tutti.

L'intelligenza artificiale (IA) aiuta ad affrontare queste disparità, ma è anche un'arma a doppio taglio. Di certo, l'IA sta già aiutando a semplificare l'erogazione dell'assistenza, abilitare la medicina personalizzata su larga scala e supportare scoperte rivoluzionarie. Tuttavia, i pregiudizi intrinseci nei dati, negli algoritmi e negli utenti potrebbero peggiorare il problema se non stiamo attenti.

Ciò significa che coloro che sviluppano e implementano soluzioni sanitarie basate sull'intelligenza artificiale devono fare attenzione a impedire che l'intelligenza artificiale allarghi involontariamente le lacune esistenti, mentre gli enti governativi e le associazioni professionali devono svolgere un ruolo attivo nell'istituzione di misure di salvaguardia per evitare o mitigare i pregiudizi.

Ecco come sfruttare l'intelligenza artificiale può colmare le disuguaglianze invece di aumentarle.

Ottenere l'equità negli studi clinici

Molti nuovi studi su farmaci e trattamenti sono stati storicamente distorti nella loro progettazione, intenzionalmente o meno. Ad esempio, solo nel 1993 le donne sono state obbligate per legge da includere nella ricerca clinica finanziata dal NIH. Più di recente, I vaccini COVID non sono mai stati intenzionalmente sperimentati sulle donne incinte—solo perché alcune partecipanti alla sperimentazione erano inconsapevolmente incinte al momento della vaccinazione abbiamo capito che era sicuro.

Una sfida con la ricerca è che non sappiamo cosa non sappiamo. Tuttavia, l'IA aiuta a scoprire set di dati distorti analizzando i dati sulla popolazione e segnalando una rappresentazione sproporzionata o lacune nella copertura demografica. Garantendo una rappresentazione diversificata e addestrando modelli di IA su dati che rappresentano accuratamente le popolazioni target, l'IA aiuta a garantire l'inclusività, ridurre i danni e ottimizzare i risultati.

Garantire trattamenti equi

Suo ben consolidata che le future madri nere che soffrono di dolore e complicazioni durante il parto vengono spesso ignorate, con conseguente tasso di mortalità materna 3 volte più alto per le donne nere rispetto alle donne bianche non ispaniche indipendentemente dal reddito o dall'istruzioneIl problema è in gran parte perpetuato da pregiudizi intrinseci: c'è un malinteso diffuso tra i professionisti medici che I neri hanno una maggiore tolleranza al dolore dei bianchi.

La distorsione negli algoritmi di intelligenza artificiale può peggiorare il problema: i ricercatori di Harvard hanno scoperto che un algoritmo comune prevedeva che le donne nere e latine avevano meno probabilità di avere parti vaginali di successo dopo un taglio cesareo (VBAC), il che potrebbe aver portato i dottori a eseguire più tagli cesarei su donne di colore. Tuttavia, i ricercatori hanno scoperto che "l'associazione è non supportato da plausibilità biologica,” suggerendo che la razza è “un proxy per altre variabili che riflettono l’effetto di razzismo sulla salute". L'algoritmo è stato successivamente aggiornato per escludere razza o etnia dal calcolo del rischio.

Questa è un'applicazione perfetta per l'intelligenza artificiale per sradicare pregiudizi impliciti e suggerire (con prove) percorsi di cura che potrebbero essere stati precedentemente trascurati. Invece di continuare a praticare "cure standard", possiamo usare l'intelligenza artificiale per determinare se tali best practice si basano sull'esperienza di tutte le donne o solo delle donne bianche. L'intelligenza artificiale aiuta a garantire che le nostre basi di dati includano i pazienti che hanno più da guadagnare dai progressi nell'assistenza sanitaria e nella tecnologia.

Anche se ci possono essere condizioni in cui razza ed etnia potrebbero essere fattori di impatto, dobbiamo stare attenti a sapere come e quando dovrebbero essere presi in considerazione e quando invece stiamo semplicemente ricorrendo a pregiudizi storici per informare le nostre percezioni e gli algoritmi dell'intelligenza artificiale.

Fornire strategie di prevenzione eque

Le soluzioni di intelligenza artificiale possono facilmente trascurare determinate condizioni nelle comunità emarginate senza un'attenta considerazione di potenziali pregiudizi. Ad esempio, la Veterans Administration sta lavorando su più algoritmi per prevedere e rilevare i segni di malattie cardiache e infarti. Ciò ha un enorme potenziale salvavita, ma la maggior parte degli studi storicamente non ha incluso molte donne, per le quali le malattie cardiovascolari sono la prima causa di morte. Pertanto, non si sa se questi modelli siano efficaci anche per le donne, che spesso presentano sintomi molto diversi rispetto agli uomini.

Includere un numero proporzionale di donne in questo set di dati potrebbe aiutare a prevenire alcuni dei 3.2 milioni di attacchi cardiaci e mezzo milione di decessi correlati al cuore ogni anno nelle donne attraverso la diagnosi precoce e l'intervento. Allo stesso modo, nuovi strumenti di intelligenza artificiale stanno rimuovendo il algoritmi basati sulla razza nello screening delle malattie renali, che storicamente hanno escluso neri, ispanici e nativi americani, con conseguenti ritardi nelle cure e scarsi risultati clinici.

Invece di escludere gli individui emarginati, l'IA può effettivamente aiutare a prevedere i rischi per la salute delle popolazioni svantaggiate e consentire valutazioni del rischio personalizzate per indirizzare meglio gli interventi. I dati potrebbero già essere lì; è semplicemente una questione di "sintonizzare" i modelli per determinare in che modo razza, genere e altri fattori demografici influenzano i risultati, se lo fanno.

Semplifica le attività amministrative

Oltre a influenzare direttamente i risultati dei pazienti, l'IA ha un potenziale incredibile per accelerare i flussi di lavoro dietro le quinte per ridurre le disparità. Ad esempio, aziende e fornitori stanno già utilizzando l'IA per colmare le lacune nella codifica e nell'aggiudicazione dei reclami, convalidando i codici di diagnosi rispetto alle note del medico e automatizzando i processi di pre-autorizzazione per le comuni procedure diagnostiche.

Semplificando queste funzioni, possiamo ridurre drasticamente i costi operativi, aiutare gli studi medici a operare in modo più efficiente e dare al personale più tempo da trascorrere con i pazienti, rendendo così l'assistenza sanitaria esponenzialmente più conveniente e accessibile.

Ognuno di noi ha un ruolo importante da svolgere

Il fatto che abbiamo a disposizione questi incredibili strumenti rende ancora più imperativo il loro utilizzo per sradicare e superare i pregiudizi in ambito sanitario. Sfortunatamente, negli Stati Uniti non esiste un ente di certificazione che regoli gli sforzi per utilizzare l'IA per "rendere imparziale" l'erogazione dell'assistenza sanitaria e, persino per quelle organizzazioni che hanno elaborato delle linee guida, non esiste alcun incentivo normativo a rispettarle.

Pertanto, in quanto professionisti dell'intelligenza artificiale, data scientist, creatori di algoritmi e utenti, spetta a noi sviluppare una strategia consapevole per garantire l'inclusività, la diversità dei dati e l'uso equo di questi strumenti e approfondimenti.

Per fare ciò, sono essenziali un'integrazione e un'interoperabilità accurate. Con così tante fonti di dati, dai dispositivi indossabili e dai fornitori di laboratori e imaging di terze parti all'assistenza primaria, agli scambi di informazioni sanitarie e alle cartelle cliniche dei pazienti, dobbiamo integrare tutti questi dati in modo che vengano inclusi i pezzi chiave, indipendentemente dalla formattazione della nostra fonte. Il settore ha bisogno di normalizzazione dei dati, standardizzazione e corrispondenza delle identità per essere sicuro che i dati essenziali dei pazienti vengano inclusi, anche con ortografie dei nomi diverse o convenzioni di denominazione basate su diverse culture e lingue.

Dobbiamo anche integrare le valutazioni della diversità nel nostro processo di sviluppo dell'IA e monitorare la "deriva" nelle nostre metriche nel tempo. I professionisti dell'IA hanno la responsabilità di testare le prestazioni del modello nei sottogruppi demografici, condurre audit di pregiudizio e comprendere come il modello prende decisioni. Potremmo dover andare oltre le ipotesi basate sulla razza per garantire che la nostra analisi rappresenti la popolazione per cui la stiamo sviluppando. Ad esempio, i membri del Tribù indiana Pima che vivono nella riserva del fiume Gila in Arizona presentano tassi estremamente elevati di obesità e diabete di tipo 2, mentre i membri della stessa tribù che vivono appena oltre il confine, nelle montagne della Sierra Madre in Messico, presentano tassi di obesità e diabete notevolmente più bassi, il che dimostra che la genetica non è l'unico fattore.

Infine, abbiamo bisogno che organizzazioni come l'American Medical Association, l'Office of the National Coordinator for Health Information Technology e organizzazioni specialistiche come l'American College of Obstetrics and Gynecology, l'American Academy of Pediatrics, l'American College of Cardiology e molte altre collaborino per definire standard e quadri di riferimento per lo scambio di dati e l'acutezza, al fine di prevenire pregiudizi.

Standardizzando la condivisione dei dati sanitari ed espandendo HTI-1 e HTI-2 per richiedere agli sviluppatori di lavorare con gli enti di accreditamento, aiutiamo a garantire la conformità e a correggere gli errori passati di iniquità. Inoltre, democratizzando l'accesso a dati completi e accurati sui pazienti, possiamo rimuovere i paraocchi che hanno perpetuato i pregiudizi e utilizzare l'intelligenza artificiale per risolvere le disparità di cura attraverso approfondimenti più completi e oggettivi.

Shelley Wehmeyer è Direttore Senior, Prodotto e Partner presso Rapsodia. Shelley dedica la sua carriera a semplificare le complessità dell'erogazione di assistenza sanitaria e sociale in tutto il mondo con la tecnologia. Che si tratti di gestire i requisiti di un nuovo mercato, lanciare un nuovo prodotto o abilitare team e clienti a contatto con il cliente sulla strategia di prodotto, la parte più gratificante dell'esperienza di Shelley è la capacità di riunire team interfunzionali e interorganizzativi verso un obiettivo comune: fare ciò che è meglio per il paziente e il medico.