Seguici sui social

Dott. Alberto-Giovanni Busetto, Chief AI Officer presso HealthAI – Serie di interviste

interviste

Dott. Alberto-Giovanni Busetto, Chief AI Officer presso HealthAI – Serie di interviste

mm

Dott. Alberto-Giovanni Busetto è un dirigente e innovatore svizzero-italiano nel campo dell'intelligenza artificiale e Chief AI Officer di SaluteAI. È membro della Consigli per il futuro globale del World Economic Forum e in precedenza ha ricoperto ruoli pionieristici come il primo Global Head of Data Science & AI presso Merck Healthcare e il primo Group SVP Head of Data & AI presso The Adecco Group.

Nel corso della sua carriera, Alberto-Giovanni è stato riconosciuto come Mentor del Global Compact delle Nazioni Unite, Merck Digital Champion e IBM Distinguished Speaker. Ha contribuito alla governance globale dell'IA come membro della Task-Force della World Employment Confederation ed è stato onorato dalla US National Academy of Engineering FoE come uno degli ingegneri emergenti più eccezionali della nazione. Inoltre, è stato US Big Data Chair del Japan-America Frontiers of Engineering.

Cosa ti ha spinto a passare dai ruoli di leadership nell'intelligenza artificiale in grandi aziende come Merck a quelli di responsabile dell'HealthAI?

Salve, sono il Dott. Alberto-Giovanni Busetto, Chief AI Officer presso HealthAI – L’agenzia globale per l’intelligenza artificiale responsabile in ambito sanitario. Ho più di 20 anni di esperienza nella progettazione, sviluppo, distribuzione e gestione di soluzioni AI. La mia carriera è stata caratterizzata dall'impegno a sfruttare l'AI per un impatto significativo. In Merck Healthcare, ho ricoperto il ruolo inaugurale di Global Head of Data Science & AI, dove ho guidato lo sviluppo di soluzioni basate sull'AI in ambito sanitario e biotecnologico. Questo ruolo ha sottolineato il potenziale trasformativo dell'AI nei settori sanitari.

La transizione a HealthAI mi ha permesso di concentrarmi più intensamente sull'implementazione di un'IA responsabile in ambito sanitario, con l'obiettivo di colmare il divario tra innovazione tecnologica e assistenza incentrata sull'uomo. In questo, la governance dei dati è anche uno dei miei punti focali principali. Ciò che mi entusiasma davvero in HealthAI è il lavoro che svolgiamo nel contesto di sandbox normativi e di innovazione, stiamo creando progetti per accelerare lo sviluppo e l'adozione di un'IA responsabile su larga scala per consentire agli innovatori di agire.

Sono spinto dalla domanda: Come possiamo rendere l'intelligenza artificiale non solo più intelligente, ma anche realmente utile laddove più conta: migliorare la vita delle persone? In HealthAI, ho l'opportunità di dare forma al modo in cui pensiamo all'IA in ambito sanitario, offrendo indicazioni a governi e istituzioni sanitarie sull'implementazione di soluzioni di IA che non siano solo all'avanguardia, ma anche etiche, trasparenti e profondamente radicate nelle esigenze sanitarie del mondo reale. Per me, non si tratta solo di algoritmi, ma di impatto.

Cosa ti entusiasma di più dell'intersezione tra intelligenza artificiale e salute?

La convergenza tra intelligenza artificiale e salute offre opportunità per migliorare i risultati attraverso diagnosi più avanzate, trattamenti personalizzati e soluzioni sanitarie ottimizzate. La capacità dell'intelligenza artificiale di analizzare set di dati complessi può, ad esempio, portare a una diagnosi precoce delle malattie e a prognosi più accurate.

Ciò che mi entusiasma di più è che questi progressi non sono riservati solo ai paesi ad alto reddito, ma hanno il potenziale per trasformare anche i settori sanitari nei paesi a basso e medio reddito. La diagnostica basata sull'intelligenza artificiale può portare approfondimenti di livello specialistico a regioni con competenze mediche limitate, l'analisi predittiva può aiutare ad allocare le risorse dove sono più necessarie e gli strumenti di salute digitale possono colmare le lacune nell'accesso alle cure. Implementando l'intelligenza artificiale in modo responsabile, possiamo creare soluzioni sanitarie più eque che servano le persone ovunque, indipendentemente dalla geografia o dal livello di reddito.

In che modo l'intelligenza artificiale può contribuire a colmare il divario sanitario tra i paesi ad alto reddito e quelli a basso e medio reddito? Quali sfide esistono nel garantire un accesso equo?

L'intelligenza artificiale ha il potenziale per democratizzare la salute rendendo accessibili a livello globale approfondimenti medici avanzati. Nelle regioni con competenze mediche limitate, gli strumenti diagnostici basati sull'intelligenza artificiale possono aiutare a identificare le malattie in modo accurato. Ad esempio, le piattaforme di telemedicina, potenziate dall'intelligenza artificiale, possono mettere in contatto i pazienti in aree remote con specialisti in tutto il mondo, facilitando il trasferimento di conoscenze e migliorando la qualità dell'assistenza.

Garantire un accesso equo alle soluzioni sanitarie basate sull'intelligenza artificiale implica affrontare diverse sfide, alcune delle quali sono le più importanti e riguardano le limitazioni infrastrutturali. Ciò può ostacolare l'adozione delle tecnologie AI, poiché molte regioni potrebbero non disporre dei framework digitali necessari per supportare soluzioni avanzate.

Anche le preoccupazioni sulla privacy dei dati rimangono critiche: la protezione delle informazioni personali richiede solide strutture di governance per garantire riservatezza e sicurezza. Inoltre, i sistemi di intelligenza artificiale devono essere adattati alle lingue locali e ai contesti culturali per essere realmente efficaci, superando le barriere che potrebbero altrimenti limitare l'accessibilità.

Gli ostacoli normativi complicano ulteriormente il panorama, poiché trovare il giusto equilibrio tra promuovere l'innovazione e garantire privacy e sicurezza richiede uno sviluppo di policy ponderato. Affrontando queste sfide in modo proattivo, l'IA può diventare uno strumento potente per migliorare l'equità sanitaria globale.

Quanto sono importanti le collaborazioni tra governi, aziende tecnologiche e operatori sanitari per garantire uno sviluppo e un'implementazione responsabili dell'intelligenza artificiale?

La collaborazione tra governi, aziende tecnologiche e operatori sanitari non è solo vantaggiosa, ma è essenziale per lo sviluppo e l'implementazione responsabili dell'IA in ambito sanitario. Queste partnership consentono la creazione di quadri completi che affrontano considerazioni etiche, salvaguardano la privacy dei dati e stabiliscono standard operativi che garantiscono che l'IA sia efficace e affidabile.

Lavorando insieme, le parti interessate possono andare oltre le soluzioni frammentate e universali e sviluppare invece approcci basati sull'intelligenza artificiale che siano su misura per le esigenze sanitarie del mondo reale. Ciò significa sfruttare l'intelligenza artificiale per migliorare la diagnostica, semplificare i flussi di lavoro clinici ed espandere l'accesso a cure di qualità, in particolare nelle regioni sottoservite. Inoltre, la collaborazione promuove trasparenza e responsabilità, assicurando che l'intelligenza artificiale rimanga uno strumento per l'emancipazione piuttosto che per l'esclusione.

Quando l'innovazione è guidata dalla responsabilità condivisa e allineata alle priorità della salute pubblica, l'intelligenza artificiale ha il potenziale per rimodellare il nostro approccio alla salute in un modo che sia al tempo stesso trasformativo ed equo.

Quali considerazioni etiche dovrebbero essere tenute in considerazione nelle soluzioni sanitarie basate sull'intelligenza artificiale?

Quando pensiamo alle considerazioni etiche nelle soluzioni sanitarie basate sull'intelligenza artificiale, ci sono alcune aree chiave su cui dobbiamo concentrarci. Innanzitutto, dobbiamo affrontare la mitigazione dei pregiudizi per garantire che i modelli di intelligenza artificiale non rafforzino involontariamente le disparità sanitarie esistenti. Anche la trasparenza è fondamentale, poiché il processo decisionale alla base dell'intelligenza artificiale deve essere chiaro e comprensibile per tutte le parti coinvolte. La responsabilità è successiva, con chiare linee di responsabilità per qualsiasi decisione presa dai sistemi di intelligenza artificiale, in modo che qualcuno possa essere ritenuto responsabile se le cose vanno male.

L'autonomia è al centro dell'intelligenza artificiale etica in ambito sanitario, il che significa che è essenziale non solo rispettare ma anche supportare attivamente i diritti delle persone a prendere decisioni consapevoli sulle proprie cure. Ciò va oltre la semplice fornitura di informazioni: si tratta di garantire che le persone comprendano appieno le proprie opzioni, i potenziali rischi e benefici e il ruolo che l'intelligenza artificiale svolge laddove viene impiegata.

Dobbiamo garantire che gli utenti o coloro che beneficiano dell'intelligenza artificiale si sentano responsabilizzati e sicuri delle scelte fatte, sapendo di avere voce in capitolo nelle tecnologie che incidono sulla loro salute e sul loro benessere.

I modelli di intelligenza artificiale in ambito sanitario hanno talvolta dimostrato dei bias. In che modo i regolatori e gli sviluppatori di intelligenza artificiale possono mitigare questo rischio?

Per mitigare i bias nei modelli di IA, è necessario che i regolatori e gli sviluppatori si concentrino sulla creazione di sistemi rappresentativi di popolazioni diverse. Ciò inizia con la raccolta di dati da un'ampia gamma di gruppi demografici, in modo che l'IA venga addestrata su informazioni che riflettano la diversità dei pazienti nel mondo reale. Ma i dati da soli non sono sufficienti: anche il monitoraggio continuo è fondamentale, poiché i sistemi di IA devono essere valutati regolarmente per identificare e correggere eventuali modelli distorti che potrebbero emergere nel tempo.

Coinvolgere una serie di parti interessate nel processo di sviluppo, tra cui esperti di etica, rappresentanti dei pazienti, medici, esperti in medicina, ecc., può apportare preziose prospettive che aiutano a garantire che i modelli di intelligenza artificiale servano tutti in modo equo e imparziale.

In che modo i governi e le organizzazioni possono garantire che le soluzioni sanitarie basate sull'intelligenza artificiale utilizzino i dati dei pazienti in modo responsabile?

Per garantire che le soluzioni sanitarie basate sull'intelligenza artificiale utilizzino i dati dei pazienti in modo responsabile, i governi e le organizzazioni devono implementare solide politiche di governance dei dati che delineino chiaramente come le informazioni sui pazienti vengono raccolte, archiviate e condivise.

Le tecniche di anonimizzazione svolgono anche un ruolo fondamentale nella protezione dell'identità delle persone, assicurando che i dati possano essere utilizzati senza compromettere la privacy. Oltre a ciò, aderire alle leggi sulla protezione dei dati sia internazionali che locali è essenziale non solo per mantenere la fiducia, ma anche per garantire che i sistemi di intelligenza artificiale operino entro i limiti legali. Questo approccio aiuta a creare una base di sicurezza e trasparenza che avvantaggia sia le persone che il settore sanitario nel suo complesso.

Quali sono i maggiori ostacoli alla regolamentazione dell'intelligenza artificiale in ambito sanitario e come possono i paesi superarli?

La prima cosa che mi viene in mente è il ritmo rapido con cui la tecnologia avanza. Le normative spesso faticano a tenere il passo con la rapidità con cui emergono le innovazioni dell'IA, lasciando lacune nella supervisione. Inoltre, i decisori politici hanno bisogno di una comprensione più approfondita sia delle tecnologie dell'IA sia delle complessità uniche della salute per elaborare normative efficaci e informate.

Un altro ostacolo è la mancanza di standardizzazione globale: senza normative coerenti in tutti i Paesi, diventa difficile promuovere la collaborazione internazionale e garantire che le soluzioni di intelligenza artificiale possano essere distribuite in tutto il mondo in modo sicuro ed etico.

Per superare questi ostacoli, i paesi dovranno investire nella formazione continua dei decisori politici, impegnarsi per armonizzare le normative a livello internazionale e restare flessibili nell'adattarsi ai nuovi sviluppi tecnologici.

I paesi possono affrontare questi ostacoli promuovendo un dialogo continuo tra tecnologi, professionisti sanitari e autorità di regolamentazione e investendo in programmi di istruzione e formazione che colmino le lacune di conoscenza. HealthAI, ad esempio, sta affrontando questo problema attraverso il suo Global Regulatory Network (GRN), che rafforza la capacità e le competenze locali nella regolamentazione dell'IA per la salute, assicurando che le autorità di regolamentazione in tutto il mondo siano ben attrezzate per gestire il panorama in evoluzione dell'IA in ambito sanitario.

In che modo HealthAI aiuta i paesi a creare e certificare meccanismi di convalida dell'intelligenza artificiale responsabili?

In qualità di partner di implementazione, HealthAI collabora con governi, ministeri della salute e altre organizzazioni sanitarie per valutare non solo la sicurezza e l'efficacia degli strumenti sanitari basati sull'intelligenza artificiale, ma anche la loro conformità etica, assicurando che la tecnologia sia in linea sia con i requisiti normativi sia con i valori sociali.

HealthAI supporta lo sviluppo di rigorosi processi di certificazione che aiutano a stabilire fiducia e responsabilità nelle soluzioni AI per la salute. In questo modo, garantiamo che i sistemi AI soddisfino gli standard più elevati prima di essere implementati, il che è essenziale per proteggere il benessere, migliorare i risultati positivi e promuovere la fiducia globale nell'uso responsabile dell'AI in ambito sanitario.

Come può l'intelligenza artificiale essere utilizzata per prevedere, monitorare e gestire future crisi sanitarie?

L'intelligenza artificiale può svolgere un ruolo fondamentale nella gestione delle crisi sanitarie, fornendo strumenti per prevedere, tracciare e gestire le epidemie in modo più efficace. Attraverso l'analisi predittiva, l'intelligenza artificiale può analizzare grandi quantità di dati epidemiologici, identificando modelli e tendenze che potrebbero segnalare il potenziale di un'epidemia prima che si verifichi, dando alle autorità il tempo di prepararsi. Inoltre, la sorveglianza in tempo reale basata sull'intelligenza artificiale può monitorare costantemente i dati sanitari provenienti da ospedali, cliniche e altre fonti, consentendo il rapido rilevamento di minacce emergenti e la capacità di rispondere rapidamente per contenerle.

L'intelligenza artificiale può anche aiutare nell'ottimizzazione delle risorse durante una crisi, aiutando le autorità ad allocare forniture mediche, personale e altre risorse critiche in modo più efficiente, assicurando che vengano utilizzate dove sono più necessarie. Integrando l'intelligenza artificiale nelle strategie di sanità pubblica, i paesi possono migliorare la loro capacità di anticipare e rispondere a future emergenze sanitarie, migliorando sia la preparazione che la resilienza di fronte a minacce in evoluzione. Questo approccio proattivo salva vite e aiuta a ridurre al minimo l'impatto complessivo delle crisi sanitarie sulla società e sull'economia.

Grazie per l'ottima intervista, i lettori che desiderano saperne di più dovrebbero visitare SaluteAI.

Antoine è un leader visionario e socio fondatore di Unite.AI, spinto da una passione incrollabile per la definizione e la promozione del futuro dell'intelligenza artificiale e della robotica. Imprenditore seriale, ritiene che l'intelligenza artificiale sarà dirompente per la società quanto l'elettricità, e spesso viene colto a delirare sul potenziale delle tecnologie dirompenti e dell'AGI.

Come futurista, si dedica a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Titoli.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e rimodellando interi settori.