Connect with us

Quando Evitare l’Intelligenza Artificiale nel Settore Sanitario

Sanità

Quando Evitare l’Intelligenza Artificiale nel Settore Sanitario

mm

Ogni volta che un nuovo progresso tecnologico si fa strada in un’industria, c’è la tentazione di considerare quel nuovo giocattolo come una soluzione a tutti i problemi dell’industria. L’intelligenza artificiale nel settore sanitario è un ottimo esempio. Man mano che la tecnologia continua ad avanzare, è stata adottata per utilizzi in sviluppo di farmaci, coordinamento delle cure e rimborso, per citarne alcuni. Ci sono molti utilizzi legittimi dell’intelligenza artificiale nel settore sanitario, dove la tecnologia è molto più efficace di qualsiasi alternativa attualmente disponibile.

Tuttavia, l’intelligenza artificiale – come si presenta oggi – eccelle solo in determinati compiti, come comprendere grandi quantità di dati e prendere decisioni in base a regole ben definite. Altre situazioni, in particolare quelle in cui il contesto aggiuntivo è essenziale per prendere la decisione giusta, non sono ben adatte all’intelligenza artificiale. Esploriamo alcuni esempi.

Negare Richieste e Cure

Che si tratti di una richiesta o di cure, le negazioni sono decisioni complesse e troppo importanti per essere gestite dall’intelligenza artificiale da sola. Quando si nega una richiesta o una cura, c’è un’evidente imperativa morale a farlo con la massima cautela, e in base alle capacità dell’intelligenza artificiale di oggi, ciò richiede un input umano.

Oltre all’elemento morale, i piani sanitari si mettono a rischio quando si affidano eccessivamente all’intelligenza artificiale per prendere decisioni di negazione. I piani possono, e sono, affrontare cause legali, per l’uso improprio dell’intelligenza artificiale per negare le richieste, con liti che accusano i piani di non aver soddisfatto i requisiti minimi per la revisione medica perché l’intelligenza artificiale è stata utilizzata al posto.

Affidarsi a Decisioni Precedenti

Fidarsi dell’intelligenza artificiale per prendere decisioni basate solo su come ha preso una decisione precedente ha un ovvio difetto: una decisione errata del passato continuerà a influenzare le altre. Inoltre, poiché le regole di politica che informano l’intelligenza artificiale sono spesso distribuite tra sistemi o codificate in modo imperfetto dagli esseri umani, i sistemi di intelligenza artificiale possono finire per adottare e poi perpetuare una comprensione inesatta di queste politiche. Per evitare ciò, le organizzazioni devono creare una singola fonte di verità politica, in modo che l’intelligenza artificiale possa fare riferimento e imparare da un set di dati affidabile.

Costruire su Sistemi Legacy

Come tecnologia relativamente nuova, l’intelligenza artificiale porta con sé un senso di possibilità, e molti team di data science dei piani sanitari sono ansiosi di sfruttare quella possibilità rapidamente utilizzando gli strumenti di intelligenza artificiale già costruiti all’interno delle piattaforme aziendali esistenti. Il problema è che i processi di gestione delle richieste di assistenza sanitaria sono estremamente complessi e le piattaforme aziendali spesso non comprendono le sfumature. Applicare l’intelligenza artificiale su queste piattaforme legacy come una soluzione universale (che non tiene conto di tutti i fattori vari che influenzano l’addebito delle richieste) finisce per causare confusione e inesattezza, piuttosto che creare processi più efficienti.

Appoggiarsi a Dati Vecchi

Uno dei maggiori vantaggi dell’intelligenza artificiale è che diventa sempre più brava a orchestrare compiti man mano che apprende, ma quell’apprendimento può avvenire solo se c’è un ciclo di feedback costante che aiuta l’intelligenza artificiale a capire cosa ha fatto di sbagliato in modo che possa regolare di conseguenza. Quel feedback non solo deve essere costante, ma deve essere basato su dati puliti e precisi. Dopo tutto, l’intelligenza artificiale è solo buona quanto i dati da cui apprende.

Quando l’Intelligenza Artificiale nel Settore Sanitario È Benefica

L’uso dell’intelligenza artificiale in un settore dove le uscite sono così consequenziali come il settore sanitario richiede certamente cautela, ma ciò non significa che non ci siano utilizzi in cui l’intelligenza artificiale ha senso.

Innanzitutto, non c’è carenza di dati nel settore sanitario (considera che il fascicolo medico di una persona potrebbe essere di migliaia di pagine), e i modelli all’interno di quei dati possono dirci molto sulla diagnosi di malattie, sulla gestione corretta delle richieste e altro. È qui che l’intelligenza artificiale eccelle, cercando modelli e suggerendo azioni in base a quei modelli che i revisori umani possono seguire.

Un’altra area in cui l’intelligenza artificiale eccelle è nella catalogazione e ingestione delle politiche e delle regole che governano come vengono pagate le richieste. L’intelligenza artificiale generativa (GenAI) può essere utilizzata per trasformare il contenuto di politica da vari formati in codice leggibile dalle macchine che può essere applicato in modo coerente su tutte le richieste dei pazienti. La GenAI può anche essere utilizzata per riassumere le informazioni e visualizzarle in un formato facile da leggere per un umano da revisionare.

Il filo conduttore attraverso tutti questi utilizzi è che l’intelligenza artificiale viene utilizzata come copilota per gli esseri umani che la supervisionano, non come responsabile unico. Finché le organizzazioni possono tenere presente questa idea mentre implementano l’intelligenza artificiale, saranno in una posizione per avere successo durante questo periodo in cui il settore sanitario sta subendo una trasformazione attraverso l’intelligenza artificiale.

Il dottor Tim Wetherill, Chief Clinical Officer di Machinify, si è formato come chirurgo generale/traumatologo all'Università del Kansas. Ha lavorato come chirurgo generale sia in ambito privato che presso il VA prima di trasferirsi a BCBS Montana e HCSC, dove ha guidato importanti trasformazioni nel campo della gestione dell'utilizzo, dell'integrità dei pagamenti e della farmacia. È stato anche presidente del Comitato di politica medica e creatore del Comitato di validazione clinica dei fornitori.