Seguici sui social

interviste

Afshin Mehin, fondatore di Card79 – Serie di interviste

mm

Afshin Mehin è il fondatore di Card79 (precedentemente noto come WOKE), uno studio creativo specializzato in esperienze di prodotto che confondono i confini tra la nostra vita digitale e quella fisica. Card79 ha avuto il privilegio di collaborare con Elon Musk per progettare Neuralink, il primo dispositivo indossabile per il cervello al mondo. Lo studio ha progettato il Link che era la parte del sistema che una persona avrebbe indossato quotidianamente.

Hai iniziato i tuoi studi come ingegnere, come hai indirizzato la tua carriera verso la progettazione per la tecnologia del futuro?

Il design è sempre stato nel mio radar. Da adolescente ho scoperto il campo del design industriale come una possibile carriera e ho pensato che potesse essere una buona scelta per me poiché amavo creare nuovi prodotti e soluzioni per i problemi quotidiani. Ma come nel caso di molte famiglie immigrate di prima generazione, il design non era un percorso professionale familiare. Quindi ho fatto le cose migliori e ho completato la mia laurea in ingegneria meccanica presso l'Università della British Columbia a Vancouver. Quell'istruzione finì per essere una delle cose migliori che ho fatto poiché mi ha dato un apprezzamento dei problemi difficili che devono essere risolti per portare nuovi progressi tecnici nel mondo. Dopo aver completato i miei studi di ingegneria, mi sono riorientato verso la mia passione per il design e ho iniziato a proseguire gli studi in Human Computer Interaction e Industrial Design Engineering, assumendo un lato di me che era più interessato all'esperienza umana di quella tecnologia, completando un master al Royal College of Art di Londra e uno stage al MIT Media Lab Europe di Dublino. Dopo aver completato la mia formazione, mi sono trasferito a San Francisco e ho iniziato a lavorare per diverse aziende di design come IDEO e Whipsaw.

Sei stato contattato dal team di Neuralink nel 2019 per introdurre un design alla loro interfaccia cervello-macchina, potresti discutere di questo impegno iniziale?

Abbiamo ricevuto una chiamata dal Presidente di Neuralink. Avevamo già lavorato su dispositivi indossabili, quindi eravamo a nostro agio con le sfide legate alla progettazione di qualcosa che potesse essere indossato sulla testa. Quello che non ci aspettavamo era che avremmo progettato anche qualcosa che potesse essere inserito nella testa. Era la prima volta che lavoravamo a un progetto in cui ci trovavamo seduti in una stanza con un ingegnere elettrico, ingegneri meccanici, neurochirurghi e ingegneri neurali che potevano spiegare come funzionassero e come interagissero con il cervello. Non solo abbiamo lavorato alla definizione del fattore di forma – qualcosa di discreto per non attirare sguardi indesiderati – ma abbiamo anche discusso con il team di Neuralink le possibili posizioni del dispositivo indossabile e dell'impianto. Alla fine abbiamo progettato un dispositivo indossabile che sarebbe stato indossato dietro l'orecchio e avrebbe trasferito dati e alimentazione a un ricevitore wireless che sarebbe stato impiantato sotto il cuoio capelluto, sempre dietro l'orecchio. Il dispositivo indossabile è stato progettato per essere facilmente sostituito a caldo, poiché la durata della batteria per la prima generazione era stimata in poco più di un paio d'ore. Il nostro secondo impegno è stato quello di contribuire allo sviluppo del design dell'involucro esterno (il Design Industriale) del robot chirurgico, che lo avrebbe reso pronto per l'uso nelle sperimentazioni cliniche. Dopo questi due impegni, la nostra curiosità si è accesa su quale potesse essere la potenziale esperienza utente di un BMI. L'idea di usare il pensiero per controllare le cose era un concetto così nuovo ed entusiasmante che abbiamo voluto esplorarlo ulteriormente.

Quali sono i diversi componenti del Neuralink progettato da Card79?

Fondamentalmente, siamo uno studio di design e la nostra esperienza e valore sta nel capire come creare un oggetto desiderabile e accattivante. Questo a volte si ottiene rendendo un prodotto visivamente più accattivante, altre volte rendendo un prodotto più facile da usare e altre volte esponendo più capacità. Con il nostro lavoro per Neuralink, siamo venuti in aiuto con due dei dispositivi principali, il dispositivo indossabile Link di prima generazione e il robot chirurgico R1 Neuralink. Il nostro contributo su entrambi i progetti è stato quello di capire come rendere il prodotto il più adatto possibile al suo contesto umano. Per il Link, era importante risolvere i problemi di ergonomia per assicurarsi che il dispositivo si adattasse alla testa di persone diverse e fosse comodo e discreto da indossare. Per il robot R1, era fondamentale che il robot potesse essere facilmente mantenuto in sala operatoria e fosse sicuro per il personale e i chirurghi con cui lavorare.

Potresti descrivere l'approccio alla progettazione di un'esperienza utente per un'interfaccia cervello-computer?

Ci sono due esperienze utente che sarà importante considerare. Innanzitutto, c'è l'esperienza utente fisica: la facilità con cui la tecnologia può essere manutenuta, ricaricata e aggiornata, come un potenziamento del nostro corpo.

Poi c'è l'esperienza utente digitale, che dividiamo in due campi diversi.

Il primo campo è la UX che è guidata dall'attuale stato dell'arte. Ciò implica la comprensione delle capacità tecniche della tecnologia di rilevamento, l'addestramento del modello, la variazione della neuroanatomia e della psicologia che influiscono sulla robustezza dell'esperienza BMI e sulla funzione prevista o sul caso d'uso che si intende affrontare. A seconda che l'UX sia per scopi di ricerca o per un prodotto di spedizione, le priorità cambierebbero. Inoltre, se si tratta di un BMI invasivo, il livello di complessità dell'intervento chirurgico e l'accesso a quei pazienti diventa più complicato per eseguire test utente per convalidare l'UX proposto.

Il secondo campo di progettazione delle esperienze utente è per i BMI che non sono ancora tecnicamente possibili ma che potrebbero avere enormi implicazioni sociali se raggiunti. Cerchiamo di seguire la scienza fino a dove siamo e quindi iniziamo a fare ipotesi plausibili su quelle che sembrano applicazioni potenzialmente sorprendenti o disastrose che potrebbero sorgere se lo scenario futuro ad alta velocità/larga larghezza di banda si realizzasse. Speriamo che continuando a sgretolare questi futuri scenari UX saremo armati di proposte di design se e quando quel futuro arriverà.

Quali sono alcune sfide tecniche alla base della progettazione di un'interfaccia cervello-macchina?

Quindi, ci sono molte sfide. Ottenere un buon segnale è una delle cose più difficili. Per ottenere un rapporto segnale-rumore davvero basso è necessario diventare invasivi con le tecnologie di rilevamento. Ci sono molte grandi tecnologie non invasive che sono più sicure e meno rischiose da usare ma soffrono della stessa mancanza di segnale di qualità. Senza un buon segnale, è come parlare con Alexa attraverso un microfono ovattato o provare a utilizzare un mouse con un laser rotto che salta in modo irregolare quando provi a usarlo, semplicemente non ti legge al livello di dettaglio che desideri.

L'altra sfida dal punto di vista dell'esperienza utente è la variazione neuroanatomica e psicologica nel tempo all'interno di un individuo e tra gli individui. Ciò significa sostanzialmente che ogni volta che lo stesso utente o un nuovo utente desidera iniziare a utilizzare un indice di massa corporea, deve sottoporsi a una sessione di calibrazione che di per sé è spesso frustrante e demotivante per gli utenti. Esistono opportunità UX per semplificare e razionalizzare il processo di calibrazione, ma la speranza a lungo termine è che la quantità e la frequenza della necessità di calibrare un sistema possano essere ridotte.

Anche con i sistemi BCI guidati dall'immaginazione motoria intenzionale (IM) degli utenti, il modo in cui si spinge un utente a immaginare il movimento motorio può influire sulla capacità del modello di apprendimento automatico di decifrare efficacemente il movimento previsto. Un'importante ricerca pubblicata nel 2021 da Frank Willets et al. ha spinto i pazienti paralizzati a immaginare di scrivere a mano (invece di muovere un cursore o digitare tasti su una tastiera). Questa tecnica di input è stata in grado di superare altre tecniche precedentemente testate, in parte perché il compito di scrivere a mano era facile da immaginare per gli utenti, e in parte perché l'ML era in grado di decifrare efficacemente diversi caratteri scritti a mano, proprio come quando Palm Pilot introdusse per la prima volta il suo linguaggio di scrittura "graffiti" all'inizio degli anni 2000.

Potresti descrivere come le interfacce cervello-macchina saranno in grado di utilizzare modalità di pensiero visive o di altro tipo al di fuori del semplice pensiero a parole?

Come designer di UX che lavorano in questo campo in rapida evoluzione, stiamo cercando di seguire da vicino la scienza per vedere dove ci porta. Quando abbiamo immaginato alcuni dei nostri scenari futuri, abbiamo cercato di appoggiarci alla ricerca sia a breve che a lungo termine. Nel breve termine, sono stati compiuti molti progressi nello sviluppo di BMI che sfruttano l'immaginario motorio previsto in cui qualcuno immagina di muovere un oggetto per manipolare una qualche forma di tecnologia. Questa modalità consente la manipolazione diretta di oggetti con pensieri.

A un livello più ambizioso, la capacità di controllare la voce e creare parole che simboleggiano un oggetto è un livello di controllo più avanzato. Questa ricerca è uscita dall'Edward Chang's Lab all'UCSF e ha iniziato a ispirare molti dei tipi di interazioni che stavamo immaginando, sia che si trattasse di una persona in grado di chiedere qualcosa al proprio assistente di intelligenza artificiale tramite i propri pensieri o di due persone in grado di conversare avanti e indietro con i loro pensieri.

La corteccia visiva è un sistema più avanzato della voce o del movimento. Le prime ricerche indicano che esiste un alto livello di coerenza nel modo in cui la corteccia visiva funziona tra gli individui. Un articolo pubblicato nel 2004 indica che quando i ricercatori mostrano lo stesso input visivo a persone diverse, c'era un "livello sorprendente di sincronizzazione voxel per voxel tra individui". C'era anche un altro progetto pubblicato dai ricercatori dell'Università di Kyoto, in cui i ricercatori hanno scoperto che l'attività nelle regioni cerebrali di ordine superiore potrebbe prevedere con precisione il contenuto dei sogni dei partecipanti. Supportare il pensiero visivo ha un enorme potenziale, consentendo alle persone di aumentare il loro potere di immaginazione.

Alla fine della giornata molto dipenderà da quale di questi nuovi input avrà successo dipenderà dalla facilità con cui possono essere appresi, da quanto funzionano in modo affidabile e da quanto avvantaggiano l'utente finale, sia che si tratti di consentire alle persone di fare cose che non sono stati in grado di fare prima o fare cose più velocemente di quanto non siano mai stati in grado di fare loro.

Potresti discutere di come le interfacce cervello-macchina saranno in grado di comprendere lo stato emotivo di una persona?

Le emozioni possono attualmente essere catturate con l'EEG a livello macroscopico e classificate nei grandi secchi emotivi come rabbia, tristezza, felicità, disgusto e paura. Ci sono due modi in cui potremmo vedere lo stato emotivo di una persona che influisce sul futuro indice di massa corporea. Potrebbero in primo luogo ispirare caratteristiche reali, informando un'app di meditazione o informando un terapista della storia emotiva del loro cliente dal loro ultimo appuntamento. In alternativa, poiché queste informazioni sono più macroscopiche e qualitative rispetto ad altri controlli del BMI che catturano movimento, linguaggio o immagini, avrebbe senso utilizzare tali dati per modificare il "sapore" di un'interfaccia, regolando un BMI specifico per tenere conto delle emozioni della persona , simile a come "Night Mode" è in grado di regolare la luminosità di uno schermo a seconda dell'ora del giorno.

Quali sono alcuni dei casi d'uso per le interfacce cervello-macchina che ti entusiasmano di più?

Sono innanzitutto affascinato dall'idea di saperne di più su come funziona effettivamente il cervello. Sembra che abbiamo molti sforzi diversi per cercare di comprendere il funzionamento interno del cervello, ma nessun modello olistico. Ecco perché applicare i principi UX a questo argomento è così eccitante per me! Ciò che ne verrà fuori sarà idealmente qualcosa che sarà effettivamente una UX ad alta larghezza di banda / alta velocità che sta migliorando la vita delle persone. L'idea di accelerare ciò che facciamo come specie sembra incredibile e ciò che mi entusiasma di questo argomento. D'altra parte, la sfida alla nostra umanità e alla nostra indipendenza è ossessionante e deve essere affrontata con la massima vigilanza.

Qual è la tua visione per il futuro delle interfacce cervello-macchina?

Uno in cui le persone beneficiano della tecnologia, ne hanno il controllo, ma allo stesso tempo sono in grado di connettersi con gli altri e le informazioni in modi che al momento non siamo in grado di immaginare. L'idea di essere in rete in un modo che metta al primo posto la nostra umanità. Uno dei rischi di cui siamo tutti consapevoli è che temiamo che i nostri pensieri non saranno più privati ​​o che diventeremo tutti zombie ambulanti con il controllo mentale. Con il modo in cui il Web 2.0 ha dovuto scendere a compromessi sulla privacy delle persone per sostenersi, non c'è da meravigliarsi che le persone siano scettiche! Nonostante il fatto che la scienza sia molto lontana dal trasformarlo in realtà, voglio svolgere un ruolo attivo per assicurarmi che non vada mai in quella direzione. Sapendo che ci sono così tante parti interessate, dai governi ai Venture Capitalist, non c'è alcuna garanzia che non si dirigerà verso una direzione oscura. Ecco perché, come progettista di UX, ritengo sia COSÌ fondamentale entrare presto e iniziare a mettere dei paletti nel terreno attorno a ciò che è nel migliore interesse delle persone che utilizzeranno effettivamente questa tecnologia.

Grazie per l'ottima intervista, i lettori che desiderano saperne di più dovrebbero visitare Card79 or Neuralink.

Antoine è un leader visionario e socio fondatore di Unite.AI, spinto da una passione incrollabile per la definizione e la promozione del futuro dell'intelligenza artificiale e della robotica. Imprenditore seriale, ritiene che l'intelligenza artificiale sarà dirompente per la società quanto l'elettricità, e spesso viene colto a delirare sul potenziale delle tecnologie dirompenti e dell'AGI.

Come futurista, si dedica a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Titoli.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e rimodellando interi settori.