mozzicone Vivek Desai, Chief Technology Officer, Nord America presso RLDatix - Serie di interviste - Unite.AI
Seguici sui social

interviste

Vivek Desai, Chief Technology Officer, Nord America presso RLDatix – Serie di interviste

mm
aggiornato on

Vivek Desai Europe è Direttore Tecnico del Nord America a RLDatix, un società di servizi e software per operazioni sanitarie connesse. RLDatix ha la missione di cambiare l'assistenza sanitaria. Aiutano le organizzazioni a promuovere un'assistenza più sicura ed efficiente fornendo strumenti di governance, rischio e conformità che favoriscono il miglioramento generale e la sicurezza.

Cosa ti ha attratto inizialmente verso l’informatica e la sicurezza informatica?

Sono stato attratto dalle complessità di ciò che l’informatica e la sicurezza informatica stanno cercando di risolvere: c’è sempre una sfida emergente da esplorare. Un ottimo esempio di ciò è quando il cloud ha iniziato a guadagnare terreno. Si trattava di una grande promessa, ma sollevava anche alcune domande sulla sicurezza del carico di lavoro. Era molto chiaro sin dall’inizio che i metodi tradizionali rappresentavano una soluzione temporanea e che le organizzazioni a tutti i livelli avrebbero dovuto sviluppare nuovi processi per proteggere in modo efficace i carichi di lavoro nel cloud. Esplorare questi nuovi metodi è stato un viaggio particolarmente emozionante per me e per molti altri che lavorano in questo campo. È un settore dinamico e in evoluzione, quindi ogni giorno porta qualcosa di nuovo ed eccitante.

Potresti condividere alcune delle attuali responsabilità che hai come CTO di RLDatix?  

Attualmente mi concentro sulla gestione della nostra strategia sui dati e sulla ricerca di modi per creare sinergie tra i nostri prodotti e i dati in loro possesso, per comprendere meglio le tendenze. Molti dei nostri prodotti ospitano tipi di dati simili, quindi il mio compito è trovare modi per abbattere questi silos e rendere più semplice l'accesso ai dati per i nostri clienti, sia ospedali che sistemi sanitari. Con questo, sto anche lavorando alla nostra strategia globale di intelligenza artificiale (AI) per informare l'accesso e l'utilizzo dei dati in tutto l'ecosistema.

Rimanere aggiornati sulle tendenze emergenti in vari settori è un altro aspetto cruciale del mio ruolo, per garantire che stiamo andando nella giusta direzione strategica. Attualmente sto tenendo d'occhio i modelli linguistici di grandi dimensioni (LLM). Come azienda, stiamo lavorando per trovare modi per integrare gli LLM nella nostra tecnologia, per potenziare e migliorare gli esseri umani, in particolare gli operatori sanitari, ridurre il loro carico cognitivo e consentire loro di concentrarsi sulla cura dei pazienti.

Nel tuo post sul blog LinkedIn intitolato “Una riflessione sul mio primo anno come CTO”, hai scritto, “I CTO non lavorano da soli. Fanno parte di una squadra." Potresti approfondire alcune delle sfide che hai affrontato e come hai affrontato la delega e il lavoro di squadra su progetti che sono intrinsecamente tecnicamente impegnativi?

Il ruolo di un CTO è cambiato radicalmente negli ultimi dieci anni. Sono finiti i giorni in cui si lavorava in una sala server. Ora il lavoro è molto più collaborativo. Insieme, in tutte le business unit, ci allineiamo sulle priorità organizzative e trasformiamo tali aspirazioni in requisiti tecnici che ci spingono avanti. Gli ospedali e i sistemi sanitari si trovano attualmente ad affrontare numerose sfide quotidiane, dalla gestione della forza lavoro ai vincoli finanziari, e l’adozione di nuove tecnologie potrebbe non essere sempre una priorità assoluta. Il nostro obiettivo più grande è mostrare come la tecnologia possa aiutare a mitigare queste sfide, piuttosto che aumentarle, e il valore complessivo che apporta alla loro attività, ai dipendenti e ai pazienti in generale. Questo sforzo non può essere fatto da solo e nemmeno all'interno del mio team, quindi la collaborazione si estende a unità multidisciplinari per sviluppare una strategia coesa che metterà in mostra quel valore, sia che derivi dal fornire ai clienti l'accesso a informazioni dettagliate sui dati sbloccati o dall'attivazione di processi che attualmente non sono in grado di eseguire .

Qual è il ruolo dell’intelligenza artificiale nel futuro delle operazioni sanitarie connesse?

Man mano che i dati integrati diventano più disponibili con l’intelligenza artificiale, possono essere utilizzati per connettere sistemi disparati e migliorare la sicurezza e l’accuratezza nel continuum delle cure. Questo concetto di operazioni sanitarie connesse è una categoria su cui ci concentriamo in RLDatix poiché sblocca dati e approfondimenti utilizzabili per i decisori sanitari - e l'intelligenza artificiale è parte integrante per renderlo realtà.

Un aspetto non negoziabile di questa integrazione è garantire che l’utilizzo dei dati sia sicuro e conforme e che i rischi siano compresi. Siamo leader di mercato in termini di politiche, rischi e sicurezza, il che significa che disponiamo di un'ampia quantità di dati per formare LLM fondamentali con maggiore precisione e affidabilità. Per realizzare operazioni sanitarie realmente connesse, il primo passo è unire le soluzioni più disparate, mentre il secondo è estrarre i dati e normalizzarli tra tali soluzioni. Gli ospedali trarranno grandi vantaggi da un gruppo di soluzioni interconnesse in grado di combinare set di dati e fornire valore utilizzabile agli utenti, piuttosto che mantenere set di dati separati da singole soluzioni puntuali.

In un recente keynote, la Chief Product Officer Barbara Staruk ha condiviso come RLDatix sta sfruttando l'intelligenza artificiale generativa e modelli linguistici di grandi dimensioni per semplificare e automatizzare la segnalazione degli incidenti relativi alla sicurezza dei pazienti. Potresti spiegare come funziona?

Questa è un'iniziativa davvero significativa per RLDatix e un ottimo esempio di come stiamo massimizzando il potenziale dei LLM. Quando gli ospedali e i sistemi sanitari completano le relazioni sugli incidenti, esistono attualmente tre formati standard per determinare il livello di danno indicato nel rapporto: i formati comuni dell’Agenzia per la ricerca sanitaria e la qualità, il Consiglio di coordinamento nazionale per la segnalazione e la prevenzione degli errori terapeutici e il Consiglio di coordinamento nazionale per la segnalazione e la prevenzione degli errori terapeutici e il Consiglio di coordinamento nazionale per la segnalazione e la prevenzione degli errori terapeutici. Miglioramento (HPI) Classificazione degli eventi di sicurezza (SEC). In questo momento, possiamo facilmente addestrare un LLM a leggere il testo in un rapporto su un incidente. Se un paziente muore, ad esempio, l'LLM può rilevare tali informazioni senza problemi. La sfida, tuttavia, sta nella formazione del LLM per determinare il contesto e distinguere tra categorie più complesse, come il danno permanente grave, una tassonomia inclusa nell’HPI SEC, ad esempio, e il danno temporaneo grave. Se la persona che segnala non include un contesto sufficiente, LLM non sarà in grado di determinare il livello di danno della categoria appropriata per quel particolare incidente relativo alla sicurezza del paziente.

RLDatix mira a implementare una tassonomia più semplice, a livello globale, in tutto il nostro portafoglio, con categorie concrete che possano essere facilmente distinte dal LLM. Nel tempo, gli utenti potranno semplicemente scrivere cosa è successo e da lì LLM lo gestirà estraendo tutte le informazioni importanti e precompilando i moduli degli incidenti. Non solo si tratta di un notevole risparmio di tempo per una forza lavoro già stressata, ma man mano che il modello diventa ancora più avanzato, saremo anche in grado di identificare tendenze critiche che consentiranno alle organizzazioni sanitarie di prendere decisioni più sicure a tutti i livelli.

Quali sono gli altri modi in cui RLDatix ha iniziato a incorporare gli LLM nelle sue operazioni?

Un altro modo in cui stiamo sfruttando gli LLM internamente è quello di semplificare il processo di accreditamento. Le credenziali di ciascun provider sono formattate in modo diverso e contengono informazioni univoche. Per metterlo in prospettiva, pensa a come il curriculum di ognuno appare diverso: dai caratteri, all'esperienza lavorativa, all'istruzione e alla formattazione generale. Le credenziali sono simili. Dove ha frequentato il college il fornitore? Qual è la loro certificazione? In quali articoli sono pubblicati? Ogni operatore sanitario fornirà tali informazioni a modo suo.

In RLDatix, gli LLM ci consentono di leggere queste credenziali ed estrarre tutti i dati in un formato standardizzato in modo che coloro che lavorano nell'immissione dei dati non debbano cercarli in modo approfondito, consentendo loro di dedicare meno tempo alla componente amministrativa e concentrare il proprio lavoro. dedicare tempo ad attività significative che aggiungono valore.

La sicurezza informatica è sempre stata impegnativa, soprattutto con il passaggio alle tecnologie basate sul cloud, potresti discutere alcune di queste sfide?

Cybersecurity is impegnativo, ecco perché è importante lavorare con il partner giusto. Garantire che gli LLM rimangano sicuri e conformi è la considerazione più importante quando si sfrutta questa tecnologia. Se la tua organizzazione non dispone di personale interno dedicato per farlo, può essere incredibilmente impegnativo e dispendioso in termini di tempo. Questo è il motivo per cui collaboriamo con Amazon Web Services (AWS) sulla maggior parte delle nostre iniziative di sicurezza informatica. AWS ci aiuta a instillare sicurezza e conformità come principi fondamentali all'interno della nostra tecnologia in modo che RLDatix possa concentrarsi su ciò che sappiamo fare veramente bene, ovvero creare ottimi prodotti per i nostri clienti in tutti i nostri rispettivi settori verticali.

Quali sono alcune delle nuove minacce alla sicurezza che avete riscontrato con la recente rapida adozione degli LLM?

Dal punto di vista RLDatix, ci sono diverse considerazioni su cui stiamo lavorando mentre sviluppiamo e forniamo LLM. Un obiettivo importante per noi è mitigare i pregiudizi e le ingiustizie. Gli LLM sono validi quanto lo sono i dati su cui sono formati. Fattori come genere, razza e altri dati demografici possono includere molti pregiudizi intrinseci perché il set di dati stesso è distorto. Ad esempio, pensate a come gli Stati Uniti sudorientali usano la parola “y'all” nel linguaggio di tutti i giorni. Si tratta di un pregiudizio linguistico unico inerente a una specifica popolazione di pazienti che i ricercatori devono considerare quando addestrano il LLM a distinguere accuratamente le sfumature linguistiche rispetto ad altre regioni. Questi tipi di pregiudizi devono essere affrontati su larga scala quando si tratta di sfruttare gli LLMS nel settore sanitario, poiché la formazione di un modello all’interno di una popolazione di pazienti non significa necessariamente che quel modello funzionerà in un’altra.

Anche il mantenimento della sicurezza, della trasparenza e della responsabilità sono importanti punti focali per la nostra organizzazione, oltre a mitigare qualsiasi opportunità di allucinazioni e disinformazione. Garantire di affrontare attivamente eventuali problemi di privacy, comprendere come un modello ha raggiunto una determinata risposta e disporre di un ciclo di sviluppo sicuro sono tutti componenti importanti di un'implementazione e una manutenzione efficaci.

Quali sono gli altri algoritmi di apprendimento automatico utilizzati in RLDatix?

L'utilizzo del machine learning (ML) per scoprire informazioni critiche sulla pianificazione è stato un caso d'uso interessante per la nostra organizzazione. Nello specifico, nel Regno Unito, abbiamo esplorato come sfruttare il machine learning per comprendere meglio come avviene il rostering o la pianificazione di infermieri e medici. RLDatix ha accesso a un'enorme quantità di dati di programmazione degli ultimi dieci anni, ma cosa possiamo fare con tutte queste informazioni? È qui che entra in gioco il machine learning. Stiamo utilizzando un modello di machine learning per analizzare i dati storici e fornire informazioni su come potrebbe apparire la situazione del personale tra due settimane, in un ospedale specifico o in una determinata regione.

Questo caso d'uso specifico è un modello ML molto realizzabile, ma stiamo spingendo ulteriormente l'ago collegandolo a eventi della vita reale. Ad esempio, cosa succederebbe se esaminassimo tutti i programmi di calcio della zona? Sappiamo in prima persona che gli eventi sportivi in ​​genere portano a più infortuni e che un ospedale locale avrà probabilmente più pazienti ricoverati il ​​giorno di un evento rispetto a una giornata tipica. Stiamo lavorando con AWS e altri partner per esplorare quali set di dati pubblici possiamo seminare per rendere la pianificazione ancora più snella. Disponiamo già di dati che suggeriscono che vedremo un aumento dei pazienti in prossimità di importanti eventi sportivi o anche in caso di condizioni meteorologiche avverse, ma il modello ML può fare un ulteriore passo avanti prendendo tali dati e identificando tendenze critiche che aiuteranno a garantire che gli ospedali siano adeguatamente personale, riducendo in definitiva la pressione sulla nostra forza lavoro e portando il nostro settore un ulteriore passo avanti nel raggiungimento di cure più sicure per tutti.

Grazie per l'ottima intervista, i lettori che desiderano saperne di più dovrebbero visitare RLDatix.

Socio fondatore di unite.AI e membro di Consiglio tecnologico di Forbes, Antonio è un futurista che è appassionato del futuro dell'intelligenza artificiale e della robotica.

È anche il Fondatore di Titoli.io, un sito web che si concentra sugli investimenti in tecnologie dirompenti.