Seguici sui social

Matthew Crowson, MD, Direttore della gestione dei prodotti AI/GenAI presso Wolters Kluwer Health – Serie di interviste

interviste

Matthew Crowson, MD, Direttore della gestione dei prodotti AI/GenAI presso Wolters Kluwer Health – Serie di interviste

mm

Dottor Matt Crowson È un leader nella tecnologia sanitaria e chirurgo specializzato nell'applicazione dell'intelligenza artificiale alla pratica clinica. È Direttore del Prodotto AI/IA Generativa presso Wolters Kluwer Health, dove guida iniziative volte a migliorare la sintesi delle evidenze e l'analisi dei dati reali. In precedenza, ha guidato la divisione AI per i fornitori di servizi sanitari di Deloitte, sviluppando soluzioni di IA generativa per migliorare la documentazione, i cicli di fatturato e la ricerca. È anche professore associato presso la Harvard Medical School ed è autore di oltre 90 pubblicazioni peer-reviewed.

Wolters Kluwer è un fornitore globale di informazioni, software e servizi professionali, a supporto dei clienti nei settori sanitario, fiscale e contabile, legale e normativo, della conformità finanziaria e dei criteri ESG. Con sede nei Paesi Bassi, l'azienda si avvale di una profonda esperienza nel settore e di tecnologie avanzate per fornire strumenti che semplificano i flussi di lavoro, garantiscono la conformità e supportano i processi decisionali critici. Le sue attività si estendono in oltre 180 paesi, con offerte organizzate in divisioni quali Sanità, Fiscale e Contabilità, Legale e Normativo, Conformità Finanziaria e Aziendale e Performance Aziendale ed ESG.

Cominciamo con una domanda personale: come concilia i suoi doppi ruoli di chirurgo e di product leader nell'intelligenza artificiale? Il suo lavoro clinico ha influenzato la sua visione di cosa l'intelligenza artificiale dovrebbe o non dovrebbe essere in ambito sanitario?

Davvero? Inizia con un time-boxing spietato e una macchina da caffè potente. Le mattine in clinica mi permettono di mantenere le mie competenze di assistenza ai pazienti oneste, mentre il resto della giornata è dedicato a trasformare quel dolore in prima linea in specifiche di prodotto. I due ruoli si alimentano a vicenda: vedere un residente cliccare su dieci schermate per ordinare il Tylenol è tutta la ricerca di mercato di cui ho bisogno.

I progetti di intelligenza artificiale (IA) si spengono quando nessuno nella stanza ha provato quella sofferenza. Il nostro sondaggio Future Ready Healthcare mostra che l'80% dei leader afferma che "ottimizzare i flussi di lavoro" è una priorità assoluta. Tuttavia, solo il 63% pensa di essere pronto a farlo con l'IA generativa (GenAI). Questo è il classico divario tra strategia ed esecuzione che gli esperti del settore possono colmare chiedendosi il giusto "perché" clinico prima di scrivere una singola riga di codice.

Anche la mia prospettiva clinica mantiene la missione pratica. Il personale in prima linea ci ha detto che i loro principali imperativi sono risolvere la carenza di personale (82%), ridurre le spese amministrative (77%) e sconfiggere il burnout (76%). Se un algoritmo non risolve uno di questi problemi, è solo teatro. I medici si disconnettono rapidamente.

Questa lente mi rende anche cauto su dove l'IA non dovrebbe vagare. Infatti, il 57% dei professionisti teme che un eccessivo affidamento sulla GenAI possa erodere il giudizio clinico, eppure solo il 18% afferma che le proprie organizzazioni hanno pubblicato delle linee guida. Finché la governance non si adegua, il mandato è chiaro: automatizzare la burocrazia, non il pensiero.

Quindi, per me, l'equilibrio non sta tanto nel caffè contro il calendario. Si tratta di tenere un piede nella clinica – per non dimenticare mai a chi l'intelligenza artificiale dovrebbe servire – e uno nel prodotto, in modo che la conoscenza venga distribuita. Se lo fai bene, la caffeina sarà un bel bonus.

La sezione Currents, dedicata a opere audaci e innovative di artisti emergenti e affermati, include la prima statunitense di Mare’s Nest di Ben Rivers, descritto come “un enigmatico road movie ambientato in un mondo post-apocalittico governato da bambini”. Tra gli altri titoli spiccano Dracula di Radu Jude e With Hasan in Gaza di Kamal Aljafari. Rapporto di indagine sull'assistenza sanitaria pronta per il futuro Wolters Kluwer evidenzia un forte divario tra l'entusiasmo per la GenAI e la sua implementazione. Sei rimasto sorpreso da qualcuno dei risultati? Cosa ti ha colpito di più a livello personale?

Non sono rimasto minimamente sorpreso. Devo ancora incontrare un medico contrario all'automazione. Ciò che rallenta l'implementazione non è la paura di uno scenario "Skynet in camice", ma piuttosto la routine quotidiana delle operazioni sanitarie. Il sondaggio cristallizza questa realtà. Otto leader su dieci considerano l'ottimizzazione del flusso di lavoro una priorità assoluta, eppure appena sei su dieci affermano di essere pronti a lasciare che sia la GenAI a occuparsene. Questa discrepanza è esattamente ciò che vedo: mine vaganti di responsabilità, dati che sembrano più un cassetto dei rifiuti che un data lake e incentivi finanziari che continuano a premiare il volume rispetto all'efficienza. Ci sono anche altri ostacoli, tra cui la mancanza di formazione, la stanchezza da shadow IT e la nebbia normativa.

Ciò che mi ha colpito di più è stata la banalità di questi ostacoli. Carenza di personale, difficoltà amministrative e burnout dominano la lista delle preoccupazioni, ma solo il 18% delle organizzazioni ha policy formali per l'IA di generazione. Se non si sa chi approva un modello o come vengono verificati i suoi risultati, l'entusiasmo nell'ufficio conformità si spegne. Inoltre, il 68% degli intervistati afferma che i costi del lavoro rappresentano la pressione finanziaria più significativa, e non c'è da stupirsi che i dirigenti vogliano una prova del ritorno sull'investimento (ROI) prima di firmare un'altra fattura software. Il titolo non è "panico per l'IA", ma "Ottima idea: mostrami il flusso di lavoro e il business case".

Oltre la metà degli operatori sanitari intervistati teme che l'IA di Gen possa erodere le capacità decisionali cliniche. Ritiene che questo timore sia fondato o riflette preoccupazioni più profonde sulla fiducia e la trasparenza nei sistemi di IA?

Parte dell'ansia è reale, ma ha meno a che fare con i timori fantascientifici di un'IA canaglia in stile HAL-9000 e più con la semplice responsabilità. Quando uno strumento offre diagnosi differenziali in pochi secondi, è necessaria una provenienza cristallina: Da dove proviene la raccomandazione, chi la firma e come viene verificata? Oggi, solo una piccola minoranza di organizzazioni dispone di una governance GenAI formale, quindi i medici si mostrano cauti. Questo emerge dai nostri dati: il 57% afferma che "un eccessivo affidamento potrebbe compromettere il giudizio". Per me, questo è un segnale che non vogliono che una scatola nera si intrometta nella loro licenza di esercitare.

Vedo la questione attraverso una lente storica. Quando i fogli di calcolo arrivarono nei dipartimenti finanziari, alcuni contabili temevano che le loro capacità analitiche si sarebbero atrofizzate. Invece, i software per fogli di calcolo divennero il nuovo punto di riferimento, alzando il livello di accuratezza. Anche l'assistenza sanitaria dovrebbe fare un salto di qualità simile. Perdiamo troppi pazienti a causa della variabilità nelle cure; l'errore medico rimane una delle principali cause di infortuni e decessi. Il superpotere dell'intelligenza artificiale generata (GenAI) può essere quello di ridurre le barre di errore, evidenziando linee guida, controindicazioni e segnalando i valori anomali più velocemente di quanto qualsiasi essere umano possa analizzare un grafico. Ma deve rimanere un assistente, non un decisore autonomo, soprattutto nel prossimo arco temporale di tre-cinque anni.

Quindi sì, il timore è legittimo, ma è risolvibile. Set di dati trasparenti, audit trail e controlli umani trasformano l'"erosione dell'IA" in "aumento dell'IA". Fornite ai medici raccomandazioni tracciabili e chiare linee di responsabilità, e quel 57% svanirà. Non si tratta di sostituire le competenze, ma di potenziarle con strumenti migliori.

Solo il 18% degli intervistati afferma di essere a conoscenza di policy GenAI chiare nelle proprie organizzazioni. Quali sono i potenziali rischi derivanti dall'implementazione di strumenti GenAI senza una governance di questo tipo?

Immaginatelo come il lancio di un nuovo farmaco senza un'etichetta di dosaggio. I dati sanitari sono estremamente sensibili e i modelli di GenAI diventano più intelligenti solo quando assorbono quel contesto ricco di informazioni sanitarie protette (PHI). Senza rigide policy di gestione dei dati che stabiliscano chi può caricare le informazioni, come vengono registrate e dove risiedono, un'organizzazione è a un passo da una violazione della privacy che potrebbe finire sui giornali.

La responsabilità è la prossima mina vagante. Quando un algoritmo allucina una dose controindicata, chi si assume la responsabilità per negligenza? Il fornitore, l'ospedale o il medico che ha cliccato su "accetta"? Al momento, la risposta è vaga perché meno di un'organizzazione su cinque ha codificato le "regole del gioco" per l'IA di Gen. In un vuoto di potere, gli avvocati spesso si affidano alle tasche più piene, e questa incertezza, da sola, può frenare l'innovazione.

La governance protegge anche da rischi più subdoli, come la deriva del modello e il bias silenzioso. Un bot oncologico addestrato secondo le linee guida dell'ultimo trimestre potrebbe silenziosamente diventare obsoleto, allontanando l'assistenza sanitaria dai binari basati sull'evidenza. Le policy che impongono il controllo delle versioni, il monitoraggio degli esiti e i trigger di tramonto impediscono agli algoritmi di invecchiare, trasformandosi in pericoli per la sicurezza.

Infine, la fiducia è in gioco. I medici temono che un eccessivo affidamento sulla GenAI possa indebolire il loro giudizio clinico; l'implementazione di strumenti poco trasparenti non fa che confermare tali timori. Una governance chiara, la trasparenza sulla discendenza dei dati, i protocolli di convalida e i controlli umani trasformano l'ansia da "scatola nera" in fiducia nel fatto che l'IA sia un'assistente, non un paziente disinvolto.

Sulla base del tuo lavoro con Wolters Kluwer e in sala operatoria, qual è il caso d'uso più realistico a breve termine per GenAI in ambito sanitario?

Dimenticate i chirurghi robot. Nei prossimi tre anni, l'opportunità killer della GenAI è annientamento amministrativoDue corsie stanno già dando prova di sé:

  1. Prendere appunti in reception. Gli strumenti di ascolto ambientale ora redigono la nota di avanzamento mentre un medico parla con il paziente, per poi inserirla direttamente nella cartella clinica elettronica (EHR). Il nostro sondaggio mostra che il 41% degli intervistati ha inserito questa funzionalità nella propria lista dei desideri per GenAI, e la tecnologia è già disponibile nei sistemi sanitari early adopter. Diversi studi hanno dimostrato che i sistemi di dettatura ambientale possono ridurre il carico cognitivo del 51% e il "pigiama time" fuori orario di oltre il 60%. Si tratta di un ROI concreto; lo si percepisce rapidamente.
  2. Protezione dei ricavi back-office. Il prossimo tassello del domino sono i pacchetti di autorizzazione preventiva, le lettere di ricorso in caso di diniego e altri rifiuti del ciclo dei ricavi. A titolo di riferimento, il 67% dei dirigenti afferma che la sola autorizzazione preventiva sta soffocando la produttività, e il 62% denuncia il peso dell'amministrazione del sistema EHR. I modelli di linguaggio di grandi dimensioni che leggono il grafico e compilano automaticamente questi moduli stanno già riducendo i giorni di gestione delle richieste di rimborso e liberando il personale per attività di maggior valore.

Perché proprio questi due? Hanno centrato la tripletta di basso rischio clinico, elevato supporto alla forza lavoro e chiara giustificazione in dollari e centesimiIn un mercato in cui il 68% dei dirigenti indica i costi del personale come la principale pressione finanziaria, gli strumenti che restituiscono ore senza modificare il piano di assistenza sono la risposta più semplice. La diagnosi autonoma arriverà più avanti; ora, GenAI si guadagna da vivere facendo sparire la cartella clinica.

L'indagine rileva che i dati non rappresentano il rischio principale citato dagli intervistati, il che è sorprendente considerando la frequenza con cui la privacy dei dati domina i titoli dei giornali. Quali rischi medici e amministratori ritengono più urgenti?Anch'io sono rimasto sorpreso. I titoli dei giornali ci farebbero credere che le violazioni dell'HIPAA tengano svegli la notte ogni CIO degli ospedali. Eppure, i nostri dati mostrano che esclusivamente Il 56% dei professionisti cita la privacy come uno dei principali rischi per la GenAI, mentre una fetta ancora più ampia (il 57%!) teme di "semplificare" il giudizio clinico. Questo mi fa capire che la paura principale non sono gli hacker, ma la responsabilità.

Ecco cosa preoccupa medici e amministratori:

  • Roulette della responsabilità. Se l'algoritmo devia l'attenzione, chi firma il controllo di negligenza? La mancanza di norme e standard chiari si colloca al 55%, insieme alle lacune in termini di trasparenza, a indicare un reale disagio riguardo al raggio d'azione legale.
  • Colpo di frusta normativo. Il 76% dei leader si sente già ostacolato dalle mutevoli norme di Medicare e Medicaid; aggiungere un'opaca GenAI a tutto questo è difficile finché non si consolidano le protezioni.
  • Deriva e distorsione del modello. Il 55% segnala la distorsione derivante da modelli non adeguatamente addestrati come un rischio critico, a dimostrazione del fatto che i dati obsoleti possono essere pericolosi tanto quanto i dati mancanti.

In breve, la maggior parte delle organizzazioni presuppone che i propri firewall siano decenti; non Avere una chiara catena di responsabilità quando l'output di un modello linguistico di grandi dimensioni (LLM) finisce in un piano di assistenza. Finché i framework di governance non definiranno in modo chiaro la proprietà, i percorsi di controllo e le cadenze di aggiornamento, le implementazioni di GenAI continueranno a bloccarsi, indipendentemente da quanto sia rigoroso lo stack di sicurezza.

Credi che gli strumenti di GenAI alla fine miglioreranno o diluiranno l'autonomia del medico? Come possiamo progettare sistemi che supportino il processo decisionale senza esagerare?

GenAI è pronta a espandere, non riduzione, dell'autonomia clinica. Attualmente, gran parte di tale autonomia è ostacolata dal triage della posta in arrivo, dalla burocrazia delle autorizzazioni preventive e dalle manovre delle cartelle cliniche elettroniche. Non sorprende, quindi, che il personale di prima linea consideri "l'ottimizzazione dei flussi di lavoro" il caso d'uso principale per GenAI (priorità all'80%), sebbene solo il 63% si senta tecnicamente pronto all'implementazione. Farmacisti e operatori sanitari alleati stanno già scommettendo sul lato positivo: il 41% e il 47% si aspettano che GenAI riduca il carico amministrativo a sufficienza per ridurre il fabbisogno di personale di supporto. Liberare i medici dall'inserimento dei dati significa più tempo da trascorrere con i pazienti. Questa è l'autonomia che tutti desiderano.

Tuttavia, il sondaggio ci ricorda che l'autonomia è un'arma a doppio taglio, come abbiamo accennato in precedenza: il 57% degli intervistati teme che un eccessivo affidamento sulla GenAI possa offuscare il giudizio clinico. L'antidoto è una progettazione ponderata, non un'azione di limitazione. I sistemi devono dimostrare il loro lavoro con indicatori di provenienza, citazioni e punteggi di affidabilità, in modo che gli esseri umani rimangano gli arbitri finali. Il controllo di versione e il monitoraggio post-implementazione individuano le derive silenziose del modello prima che inquinano i percorsi di cura, mentre i pulsanti di "override sempre visibili" rendono chiaro che l'algoritmo è un assistente, non il medico curante.

La governance è l'ultimo miglio. Solo il 18% dei professionisti afferma che la propria organizzazione ha una policy GenAI pubblicata. Senza una catena di responsabilità trasparente, anche la migliore esperienza utente si bloccherà in un limbo legale. Policy solide devono definire chiaramente la gestione dei dati, i percorsi di controllo e la delimitazione dei ruoli, che vengano condivisi tra medici, infermieri e l'assistente medico che preme il pulsante. Quando abbiniamo queste protezioni a una progettazione nativa del flusso di lavoro, GenAI smette di essere percepita come una minaccia all'autonomia e inizia a comportarsi come il copilota che i medici hanno implorato.

Cosa frena maggiormente l'adozione: limitazioni tecnologiche, incertezza normativa, attriti nel flusso di lavoro o qualcosa di più profondo come una resistenza culturale?

Si tratta di un deficit di esecuzione avvolto da incentivi preesistenti. La maggior parte dei leader dei sistemi sanitari è in grado di articolare una visione GenAI brillante, ma la loro forza operativa non è ancora al passo. Il nostro sondaggio mostra la discrepanza in un solo punto: l'80% degli intervistati considera "ottimizzare i flussi di lavoro" una priorità assoluta, eppure solo il 63% ritiene di essere pronto a farlo. La visione è a buon mercato; ingegneri dell'integrazione, manuali di change management e budget per le unità di processo grafiche (GPU) no.

La governance è la prossima voragine. Solo il 18% dei professionisti è a conoscenza di una policy GenAI pubblicata presso il proprio ospedale. Senza chiare regole sull'uso dei dati, la convalida e la responsabilità, ogni progetto pilota promettente rischia di trasformarsi in una granata per la conformità. Questa nebbia legale è amplificata dall'incertezza macroeconomica. Infatti, il 75% dei dirigenti teme che le normative statali e federali in rapida evoluzione possano stravolgere qualsiasi soluzione implementata.

Poi arriva l'attrito a livello di trincea: quasi la metà dei dirigenti cita i dati sporchi e gli incubi di integrazione delle cartelle cliniche elettroniche come principali ostacoli, e solo il 42% afferma di avere un processo per integrare gli strumenti GenAI nei flussi di lavoro esistenti. Se il modello non riesce a visualizzare il grafico o ad aggiungere clic, i medici lo abbandoneranno prima di pranzo.

Infine, c'è il "purgatorio dei piloti". Numerosi studi esterni stimano il tasso di successo dei piloti di IA che raggiungono la scala aziendale a circa uno su dieci. I consigli di amministrazione celebrano la demo, pubblicano un comunicato stampa e vanno avanti. Perché nessuno finanzia il seguente lavoro di idraulica poco affascinante. La GenAI rimarrà una promessa da PowerPoint finché gli ospedali non assumeranno product owner che hanno già distribuito software in passato.

In breve, tecnologia e cultura non sono ostacoli separati. Sono fusi. Basta una leadership responsabile, budget per l'integrazione reali, barriere di sicurezza esplicite e la richiesta di GenAI sarà all'altezza del suo clamore.

Hai sviluppato sistemi di intelligenza artificiale focalizzati su risultati pragmatici e basati sull'evidenza. Quale consiglio daresti ai leader del settore sanitario che cercano di destreggiarsi tra le esagerazioni e identificare investimenti nell'intelligenza artificiale davvero preziosi?

Inizia con una diagnosi, non con una dimostrazione. Prima di lasciare che un martello luccicante vada a caccia di chiodi, quantifica il chiodo: l'utilizzo della sala operatoria è in calo dell'8% per due trimestri consecutivi? I ricorsi per dinieghi languono e diminuiscono le entrate? L'unità infermieristica tre sta dedicando due ore a turno al "tempo di commutazione" del sistema EHR (tempo impiegato a passare da uno schermo all'altro e da un'attività all'altra)? Una volta che il problema è chiaro, lo strumento giusto tende a presentarsi da solo. Come Sir William Osler ha ricordato alla comunità medica generazioni fa: "Ascolta il paziente; [lui] ti dirà la diagnosi".

Una volta individuato il problema, analizza il business case come un CFO. Richiedi dati concreti: metriche di base, delta previsti e finestre di ammortamento che superino un test di sniffing in sala riunioni. Ricorda che solo circa un pilota di intelligenza artificiale su dieci raggiunge la scala aziendale; se il fornitore non riesce a mostrare a un cliente reale che ha migliorato l'indicatore chiave di prestazione (KPI) che ti interessa, continua a camminare.

Successivamente, decidi se acquistare, costruire o collaborare. L'acquisto può accelerare il time-to-value, ma fai attenzione ai software vaporware mascherati da slogan. Costruire ti dà il controllo, ma solo se hai un proprietario di profitti e perdite che ha già implementato il machine learning in produzione. Le partnership ibride spesso raggiungono l'equilibrio: i tuoi dati, il loro modello, il vantaggio condiviso, il rischio condiviso.

Infine, date priorità a team piccoli e interfunzionali con una chiara definizione delle responsabilità. Pensate a un team a due pizze, che includa il CMO, il CIO, il responsabile dell'ingegneria dei dati e un referente in prima linea, anziché a grandi comitati direttivi. Allineatene gli incentivi a obiettivi di risultato pluriennali anziché a metriche a breve termine e assegnate loro un budget dedicato per l'infrastruttura – GPU, ingegneria dei dati, operazioni di machine learning (MLOps) – in modo che il progetto proceda oltre la fase pilota.

Infine, guardando al futuro: come sarà un sistema GenAI responsabile e completamente integrato in ambito ospedaliero tra cinque anni? Quali sono i traguardi che dobbiamo raggiungere per arrivarci?

Immaginate di entrare in una clinica dove il medico non si volta mai verso la tastiera. La conversazione scorre fluida e un agente discreto in ascolto ambientale cattura il dialogo, redige una nota, suggerisce prescrizioni basate sulle linee guida e genera il pacchetto di autorizzazione preventiva prima ancora che il medico prenda la maniglia della porta. I primi progetti pilota stanno già dimostrando il concetto e il 41% dei medici intervistati afferma che questa è esattamente la funzionalità GenAI che desiderano in futuro.

Ciò che rende possibile questa scena non è la robotica fantascientifica; è un'architettura invisibile che fonde dati puliti e interoperabili con un livello di orchestrazione in tempo reale e una "governance come codice". Abbiamo ancora molto lavoro da fare. Per colmare le lacune, pensiamo prima all'impianto idraulico dei dati, poi integriamo i guardrail (anziché arginarli) per trasformare l'entusiasmo in abitudine.

Una volta gettate le basi, le tappe si susseguono in modo naturale. Nel primo anno, raccomando a ospedali e sistemi sanitari di collegare il data fabric, pubblicare linee guida GenAI a livello aziendale e creare una pipeline MLOps. Nel secondo anno di implementazione, sarà importante estendere la documentazione ambientale a tutti gli ambulatori, misurare i tempi di documentazione e il "pigiama time" fuori orario. Nel terzo anno, lasciare che GenAI rediga i ricorsi di diniego e i pacchetti di autorizzazione preventiva (il 67% dei leader ha affermato che questo onere è pronto per essere eliminato). Nel quarto e quinto anno, evolvere verso il supporto alle decisioni cliniche in tempo reale con la provenienza e, in definitiva, verso una pianificazione dell'assistenza basata sulla conversazione, in cui il sistema esegue gli ordini nel momento in cui vengono pronunciati.

Grazie per l'ottima intervista, i lettori che desiderano saperne di più dovrebbero visitare Wolters Kluwer o leggere la Sondaggio sulla sanità pronta per il futuro Relazione.

Antoine è un leader visionario e socio fondatore di Unite.AI, spinto da una passione incrollabile per la definizione e la promozione del futuro dell'intelligenza artificiale e della robotica. Imprenditore seriale, ritiene che l'intelligenza artificiale sarà dirompente per la società quanto l'elettricità, e spesso viene colto a delirare sul potenziale delle tecnologie dirompenti e dell'AGI.

Come futurista, si dedica a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Titoli.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e rimodellando interi settori.