Interfaccia cervello–macchina
Lama Nachman, Intel Fellow & Director of Anticipatory Computing Lab – Intervista della serie

Lama Nachman, è un Intel Fellow e Direttore del Laboratorio di Calcolo Anticipatorio. Lama è nota per il suo lavoro con il Prof. Stephen Hawking, è stata fondamentale nella creazione di un sistema informatico assistivo per aiutare il Prof. Stephen Hawking a comunicare. Oggi sta aiutando il roboticista britannico Dr. Peter Scott-Morgan a comunicare. Nel 2017, il Dr. Peter Scott-Morgan ha ricevuto una diagnosi di malattia del motoneurone (MND), nota anche come ALS o malattia di Lou Gehrig. La MND attacca il cervello e i nervi e alla fine paralizza tutti i muscoli, anche quelli che consentono di respirare e deglutire.
Il Dr. Peter Scott-Morgan ha affermato una volta: “Continuerò a evolvere, morendo come umano, vivendo come cyborg.”
cosa ti ha attirato verso l’AI?
Sono sempre stata attratta dall’idea che la tecnologia possa essere il grande livellatore. Quando sviluppata in modo responsabile, ha il potenziale di livellare il campo, affrontare le disuguaglianze sociali e amplificare il potenziale umano. Non c’è posto dove questo sia più vero che con l’AI. Mentre gran parte della conversazione dell’industria sull’AI e gli esseri umani posiziona la relazione tra i due come avversariale, credo che ci siano cose uniche che le macchine e le persone sono brave a fare, quindi preferisco vedere il futuro attraverso la lente della collaborazione uomo-AI piuttosto che della competizione uomo-AI. Dirigo il Laboratorio di Calcolo Anticipatorio presso Intel Labs, dove, in tutti i nostri sforzi di ricerca, abbiamo un focus unico sul fornire innovazione informatica che si estende per un impatto sociale più ampio. Dato quanto l’AI sia già pervasiva e il suo crescente impatto in ogni aspetto della nostra vita, vedo una grande promessa nella ricerca che il mio team sta svolgendo per rendere l’AI più accessibile, più consapevole del contesto, più responsabile e, in definitiva, portare soluzioni tecnologiche su larga scala per aiutare le persone nel mondo reale.
Hai lavorato a stretto contatto con il leggendario fisico Prof. Stephen Hawking per creare un sistema AI che lo aiutasse a comunicare e a svolgere attività che la maggior parte di noi considererebbe routine. Quali erano alcune di queste attività di routine?
Lavorare con il Prof. Stephen Hawking è stato il più significativo e impegnativo impegno della mia vita. Ha nutrito la mia anima e mi ha fatto capire veramente come la tecnologia possa migliorare profondamente la vita delle persone. Lui viveva con l’ALS, una malattia neurologica degenerativa, che nel tempo priva il paziente della capacità di svolgere le attività più semplici. Nel 2011, abbiamo iniziato a lavorare con lui per esplorare come migliorare il sistema informatico assistivo che gli permetteva di interagire con il mondo. Oltre a usare il suo computer per parlare con le persone, Stephen usava il suo computer come facciamo tutti, modificando documenti, navigando nel web, tenendo conferenze, leggendo/scrivendo email, ecc. La tecnologia ha permesso a Stephen di continuare a partecipare attivamente al mondo e a ispirarlo per anni dopo che le sue capacità fisiche si erano ridotte rapidamente. Quello, per me, è ciò che significa impatto significativo della tecnologia sulla vita di qualcuno!
Quali sono alcune delle principali intuizioni che hai tratto dal lavoro con il Prof. Stephen Hawking?
Il nostro schermo del computer è veramente la nostra porta d’accesso al mondo. Se le persone possono controllare il loro PC, possono controllare tutti gli aspetti della loro vita (consumare contenuti, accedere al mondo digitale, controllare l’ambiente fisico, navigare con la sedia a rotelle, ecc.). Per le persone con disabilità che possono ancora parlare, i progressi nel riconoscimento vocale consentono loro di avere il pieno controllo dei loro dispositivi (e in larga misura, del loro ambiente fisico). Tuttavia, coloro che non possono parlare e non possono muoversi sono veramente impediti nel non poter esercitare molta indipendenza. Quello che l’esperienza con il Prof. Hawking mi ha insegnato è che le piattaforme di tecnologia assistiva devono essere personalizzate per le esigenze specifiche dell’utente. Ad esempio, non possiamo semplicemente supporre che una singola soluzione funzioni per le persone con ALS, perché la malattia colpisce diverse capacità tra i pazienti. Quindi, abbiamo bisogno di tecnologie che possano essere facilmente configurate e adattate alle esigenze individuali. È per questo che abbiamo costruito ACAT (Assistive Context Aware Toolkit), una piattaforma software modulare e open-source che può consentire agli sviluppatori di innovare e costruire diverse capacità su di essa.
Ho anche imparato che è importante capire la soglia di comfort di ogni utente intorno al cedere il controllo in cambio di maggiore efficienza (questo non è limitato alle persone con disabilità). Ad esempio, l’AI può essere in grado di prendere il controllo da parte dell’utente per svolgere un compito più velocemente o in modo più efficiente, ma ogni utente ha un livello diverso di avversione al rischio. Alcuni sono disposti a cedere più controllo, mentre altri utenti vogliono mantenerne di più. Capire queste soglie e quanto le persone siano disposte ad andare ha un grande impatto su come questi sistemi possono essere progettati. Dobbiamo ripensare la progettazione dei sistemi in termini di livello di comfort dell’utente e non solo di misure oggettive di efficienza e precisione.
Recentemente, hai lavorato con un famoso scienziato britannico Peter Scott Morgan che soffre di malattia del motoneurone e ha l’obiettivo di diventare il primo cyborg completo al mondo. Quali sono alcuni degli obiettivi ambiziosi che Peter ha?
Uno dei problemi con l’AAC (Comunicazione Assistita e Augmentativa) è il “silenzio gap”. Molte persone con ALS (incluso Peter) usano il controllo dello sguardo per scegliere lettere / parole sullo schermo per parlare con gli altri. Ciò risulta in un lungo silenzio dopo che qualcuno finisce la sua frase mentre la persona guarda il suo computer e inizia a formulare le lettere e le parole per rispondere. Peter vuole ridurre questo silenzio gap il più possibile per riportare la spontaneità verbale nella comunicazione. Lui vuole anche preservare la sua voce e personalità e utilizzare un sistema di testo-vocale che esprima il suo stile di comunicazione unico (ad esempio, le sue battute, la sua prontezza di spirito, le sue emozioni).

Il roboticista britannico Dr. Peter Scott-Morgan, che soffre di malattia del motoneurone, ha iniziato nel 2019 a sottoporsi a una serie di operazioni per prolungare la sua vita utilizzando la tecnologia. (Credit: Cardiff Productions)
Puoi discutere alcune delle tecnologie che sono attualmente utilizzate per assistere il Dr. Peter Scott-Morgan?
Peter sta utilizzando ACAT (Assistive Context Aware Toolkit), la piattaforma che abbiamo costruito durante il nostro lavoro con il Dr. Hawking e successivamente rilasciata come open source. A differenza del Dr. Hawking, che utilizzava i muscoli della guancia come “grilletto di input” per controllare le lettere sul suo schermo, Peter sta utilizzando il controllo dello sguardo (una funzionalità che abbiamo aggiunto alla piattaforma ACAT esistente) per parlare e controllare il suo PC, che si interfaccia con una soluzione di testo-vocale di una società chiamata CereProc che è stata personalizzata per lui e gli consente di esprimere diverse emozioni/enfasi. Il sistema controlla anche un avatar che è stato personalizzato per lui.
Stiamo attualmente lavorando a un sistema di generazione di risposte per ACAT che possa consentire a Peter di interagire con il sistema a un livello più alto utilizzando le capacità dell’AI. Questo sistema ascolterà le conversazioni di Peter nel tempo e suggerirà risposte per Peter da scegliere sullo schermo. L’obiettivo è che, nel tempo, il sistema di AI imparerà dai dati di Peter e gli consentirà di “spingere” il sistema per fornirgli le migliori risposte utilizzando solo alcune parole chiave (simile a come funzionano le ricerche sul web oggi). Il nostro obiettivo con il sistema di generazione di risposte è ridurre il silenzio gap nella comunicazione sopra menzionato e potenziare Peter e gli utenti futuri di ACAT per comunicare a un ritmo che sembri più “naturale”.
Hai anche parlato dell’importanza della trasparenza nell’AI, quanto grande è questo problema?
È un grande problema, specialmente quando viene utilizzato in sistemi di decisione o sistemi di collaborazione uomo-AI. Ad esempio, nel caso del sistema assistivo di Peter, abbiamo bisogno di capire cosa sta causando il sistema a fare queste raccomandazioni e come influenzare l’apprendimento di questo sistema per esprimere meglio le sue idee.
Nel contesto più ampio dei sistemi di decisione, sia che si tratti di aiutare con la diagnosi basata su immagini mediche o di fare raccomandazioni sulla concessione di prestiti, i sistemi di AI devono fornire informazioni interpretabili dagli esseri umani su come sono giunti a queste decisioni, quali attributi o caratteristiche sono stati più impattanti su quella decisione, quale fiducia ha il sistema nella deduzione fatta, ecc. Ciò aumenta la fiducia nei sistemi di AI e consente una migliore collaborazione tra esseri umani e AI in scenari di decisione mista.
Il pregiudizio dell’AI, in particolare quando si tratta di razzismo e sessismo, è un enorme problema, ma come si identificano altri tipi di pregiudizio quando non si sa cosa si sta cercando?
È un problema molto difficile e che non può essere risolto solo con la tecnologia. Abbiamo bisogno di portare più diversità nello sviluppo dei sistemi di AI (razziale, di genere, culturale, di capacità fisica, ecc.). Ciò è chiaramente un enorme gap nella popolazione che costruisce questi sistemi di AI oggi. Inoltre, è fondamentale avere team multidisciplinari coinvolti nella definizione e nello sviluppo di questi sistemi, portando scienze sociali, filosofia, psicologia, etica e politica al tavolo (non solo scienze informatiche), e impegnarsi nel processo di indagine nel contesto dei progetti e dei problemi specifici.
Hai parlato in precedenza dell’uso dell’AI per amplificare il potenziale umano. Quali sono alcune aree che mostrano il maggior potenziale per questo ampliamento del potenziale umano?
Un’area ovvia è quella di abilitare le persone con disabilità a vivere in modo più indipendente, a comunicare con i propri cari e a continuare a creare e contribuire alla società. Vedo un grande potenziale nell’istruzione, nella comprensione dell’engagement degli studenti e nella personalizzazione dell’esperienza di apprendimento alle esigenze e alle capacità individuali degli studenti per migliorare l’engagement, potenziare gli insegnanti con queste conoscenze e migliorare i risultati dell’apprendimento. La disuguaglianza nell’istruzione oggi è così profonda e c’è un posto per l’AI per aiutare a ridurre alcune di queste disuguaglianze, se lo facciamo correttamente. Ci sono infinite opportunità per l’AI di portare un grande valore creando sistemi di collaborazione uomo-AI in molti settori (sanità, produzione, ecc.) perché ciò che gli esseri umani e l’AI portano al tavolo sono molto complementari. Perché questo accada, abbiamo bisogno di innovazione all’intersezione delle scienze sociali, dell’HCI e dell’AI. La percezione multimodale robusta, la consapevolezza del contesto, l’apprendimento da dati limitati, l’HCI fisicamente situato e l’interpretabilità sono alcune delle principali sfide che dobbiamo affrontare per portare questa visione a compimento.
Hai anche parlato di quanto sia importante il riconoscimento delle emozioni per il futuro dell’AI? Perché l’industria dell’AI dovrebbe concentrarsi di più su questa area di ricerca?
Il riconoscimento delle emozioni è una capacità chiave dei sistemi di collaborazione uomo-AI per molte ragioni. Un aspetto è che l’emozione umana offre un contesto umano chiave per qualsiasi sistema proattivo per capire prima di agire.
Ancor più importante, questi tipi di sistemi devono continuare a imparare nel mondo reale e adattarsi in base alle interazioni con gli utenti, e mentre il feedback diretto è un segnale chiave per l’apprendimento, i segnali indiretti sono molto importanti e sono gratuiti (meno lavoro per l’utente). Ad esempio, un assistente digitale può imparare molto dalla frustrazione nella voce dell’utente e utilizzare quel segnale di feedback per l’apprendimento di cosa fare in futuro, invece di chiedere all’utente un feedback ogni volta. Queste informazioni possono essere utilizzate per sistemi di apprendimento attivo dell’AI per continuare a migliorare nel tempo.
C’è qualcos’altro che ti piacerebbe condividere su ciò su cui stai lavorando al Laboratorio di Calcolo Anticipatorio o su altri argomenti che abbiamo discusso?
Quando costruiamo sistemi assistivi, dobbiamo realmente pensare a come costruire questi sistemi in modo responsabile e a come consentire alle persone di capire quali informazioni vengono raccolte e come controllare questi sistemi in modo pratico. Come ricercatori di AI, siamo spesso affascinati dai dati e vogliamo avere quanti più dati possibili per migliorare questi sistemi, tuttavia, c’è un trade-off tra il tipo e la quantità di dati che vogliamo e la privacy dell’utente. Dobbiamo veramente limitare i dati che raccogliamo a quelli assolutamente necessari per svolgere il compito di inferenza, rendere gli utenti consapevoli di esattamente quali dati stiamo raccogliendo e consentire loro di regolare questo trade-off in modi significativi e utilizzabili.
Grazie per l’intervista fantastica, i lettori che desiderano saperne di più su questo progetto dovrebbero leggere l’articolo Intel’s Lama Nachman e Peter Scott-Morgan: Due scienziati, uno un “cyborg umano”.

Il team del Laboratorio di Calcolo Anticipatorio di Intel che ha sviluppato Assistive Context-Aware Toolkit include (da sinistra) Alex Nguyen, Sangita Sharma, Max Pinaroc, Sai Prasad, Lama Nachman e Pete Denman. Non in foto sono Bruna Girvent, Saurav Sahay e Shachi Kumar. (Credit: Lama Nachman)












