Connect with us

Intelligenza Artificiale Nel Settore Sanitario Potrebbe Portare Rischi Insieme Alle Opportunità

Sanità

Intelligenza Artificiale Nel Settore Sanitario Potrebbe Portare Rischi Insieme Alle Opportunità

mm

L’IA ha un enorme potenziale quando si tratta del settore sanitario, in grado di migliorare le diagnosi e trovare nuovi farmaci più efficaci. Tuttavia, come un articolo su Scientific American ha recentemente discusso, la velocità con cui l’IA sta penetrando il settore sanitario apre anche molte nuove sfide e rischi.

Nel corso degli ultimi cinque anni, la US Food and Drug Administration ha approvato oltre 40 diversi prodotti di IA. Tuttavia, come riportato da Scientific American, nessuno dei prodotti autorizzati alla vendita negli Stati Uniti ha avuto la sua prestazione valutata in trial clinici randomizzati e controllati. Molti strumenti medici di IA non richiedono nemmeno l’approvazione della FDA.

Evan Topol, autore di “Deep Medicine: How Artificial Intelligence Can Make Healthcare Human Again, ha dichiarato a Scientific American che molti dei prodotti di IA che affermano di essere efficaci in compiti come la diagnosi di malattie non sono stati testati rigorosamente in questo modo, con il primo trial randomizzato importante di uno strumento di rilevamento e diagnosi di IA effettuato lo scorso ottobre. Inoltre, poche startup tecnologiche pubblicano i loro articoli di ricerca su riviste peer-review, che è dove il loro lavoro sarà analizzato da scienziati.

Quando testati e controllati correttamente, i sistemi di IA possono essere strumenti potenti che possono aiutare i professionisti medici a rilevare sintomi altrimenti non notati, migliorando gli esiti sanitari.

Ad esempio, uno strumento di IA per la rilevazione della malattia oculare diabetica è stato testato su centinaia di pazienti e sembra aver dimostrato di essere affidabile. L’azienda responsabile del test ha lavorato insieme alla FDA per oltre otto anni per perfezionare il prodotto. Il test, IDx-DR, sta facendo il suo ingresso nelle cliniche di assistenza primaria, dove potrebbe potenzialmente aiutare a rilevare i primi segni di retinopatia diabetica, inviando i pazienti a specialisti oculari se si sospettano sintomi.

Se non testati con cura, i sistemi di IA che i professionisti medici possono utilizzare per guidare la diagnosi e il trattamento hanno il potenziale di creare danni invece di evitarli.

L’articolo di Scientific American descrive un potenziale problema nell’affidarsi all’IA per diagnosticare le malattie, facendo riferimento all’esempio di un’IA progettata per analizzare le radiografie del torace e rilevare quali pazienti potrebbero sviluppare la polmonite. Mentre il sistema si è rivelato accurato quando testato al Mount Sinai Hospital di New York, ha fallito quando testato su immagini scattate in altri ospedali. I ricercatori hanno scoperto che l’IA stava distinguendo tra immagini create da sistemi di radiografia portatili e quelle create in un reparto di radiologia. I medici utilizzano sistemi di radiografia del torace portatili su pazienti che sono spesso troppo malati per lasciare il loro letto, e questi pazienti sono a maggior rischio di sviluppare la polmonite.

Le false allarmi sono anche una preoccupazione. DeepMind ha creato un’app mobile di IA in grado di prevedere l’insufficienza renale acuta nei pazienti ricoverati fino a 48 ore in anticipo. Tuttavia, il sistema ha segnalato anche due false allarmi per ogni insufficienza renale che è stata prevista con successo. Le false positività possono essere dannose poiché possono indurre i medici a spendere tempo e risorse inutili ordinando ulteriori test o modificando i trattamenti prescritti.

In un altro incidente, un sistema di IA ha concluso erroneamente che i pazienti che avevano la polmonite erano più probabili di sopravvivere se avevano asma, il che potrebbe indurre i medici a modificare i trattamenti per i pazienti con asma.

I sistemi di IA sviluppati per un ospedale spesso hanno prestazioni inferiori quando vengono utilizzati in un ospedale diverso. Ci sono molte cause per questo. In primo luogo, i sistemi di IA sono spesso addestrati su registri sanitari elettronici, ma molti registri sanitari elettronici sono spesso incompleti o errati poiché il loro scopo principale è spesso la fatturazione e non l’assistenza ai pazienti. Ad esempio, un’indagine condotta da KHN ha scoperto che occasionalmente c’erano errori gravi nei registri sanitari dei pazienti, come elenchi di farmaci che contengono farmaci non appropriati. Oltre a ciò, le malattie sono spesso più complesse e il sistema sanitario più complesso di quanto possa essere anticipato dagli ingegneri e dagli scienziati di IA.

Man mano che l’IA diventa sempre più diffusa, sarà importante che gli sviluppatori di IA lavorino insieme alle autorità sanitarie per assicurarsi che i loro sistemi di IA siano testati a fondo e che gli organismi regolatori assicurino che siano stabiliti e seguiti standard per l’affidabilità degli strumenti di diagnosi di IA.

Blogger e programmatore con specializzazioni in Machine Learning e Deep Learning argomenti. Daniel spera di aiutare gli altri a utilizzare il potere dell'AI per il bene sociale.