Intelligenza artificiale
NTT Research Lanciare un nuovo gruppo di fisica dell’intelligenza artificiale presso Harvard

Quando un genitore insegna al proprio bambino a relazionarsi con il mondo, insegna attraverso associazioni e l’identificazione di modelli. Prendiamo ad esempio la lettera S. I genitori mostrano al bambino abbastanza esempi della lettera e prima di lungo, saranno in grado di identificare altri esempi in contesti in cui la guida non è attiva; scuola, un libro, un cartellone pubblicitario.
Gran parte della tecnologia di intelligenza artificiale (AI) in continua evoluzione è stata insegnata allo stesso modo. I ricercatori hanno alimentato il sistema con esempi corretti di qualcosa che volevano far riconoscere, e come un bambino, l’AI ha iniziato a riconoscere modelli e a extrapolare tale conoscenza a contesti che non aveva mai sperimentato prima, formando la propria “rete neurale” per la categorizzazione. Come l’intelligenza umana, tuttavia, gli esperti hanno perso traccia degli input che hanno informato la presa di decisioni dell’AI.
Il problema del “black box” dell’AI emerge così come il fatto che non comprendiamo appieno come o perché un sistema AI faccia collegamenti, né le variabili che giocano un ruolo nelle sue decisioni. Questo problema è particolarmente rilevante quando si cerca di migliorare la sicurezza e l’affidabilità dei sistemi e di stabilire la governance dell’adozione dell’AI.
Da un veicolo dotato di AI che non riesce a frenare in tempo e ferisce i pedoni, a dispositivi di tecnologia sanitaria che assistono i medici nella diagnosi dei pazienti, e bias esibiti dai processi di selezione del personale basati sull’AI, la complessità dietro questi sistemi ha portato alla nascita di un nuovo campo di studio: la fisica dell’AI, che cerca di stabilire ulteriormente l’AI come strumento per gli esseri umani per raggiungere una comprensione più profonda.
Ora, un nuovo gruppo di studio indipendente affronterà queste sfide unendo i campi della fisica, della psicologia, della filosofia e delle neuroscienze in un’indagine interdisciplinare dei misteri dell’AI.
NTT propone fiducia e sicurezza dell’AI
Il nuovo gruppo di Fisica dell’Intelligenza Artificiale è una costola del Laboratorio di Fisica e Informatica (PHI) di NTT Research, e è stato presentato alla conferenza Upgrade 2025 di NTT a San Francisco, in California, la scorsa settimana. Continuerà ad avanzare l’approccio della Fisica dell’Intelligenza Artificiale per comprendere l’AI, che il team ha stato investigando per gli ultimi cinque anni.
Il dottor Hidenori Tanaka, che ha un dottorato in Fisica Applicata e Ingegneria Informatica presso l’Università di Harvard, guiderà il nuovo gruppo di ricerca, basandosi sulla sua precedente esperienza nel Gruppo di Sistemi Intelligenti di NTT e nel programma di ricerca sull’AI di CBS-NTT sulla fisica dell’intelligenza a Harvard.
“Come fisico, sono entusiasta dell’argomento dell’intelligenza perché, matematicamente, come puoi pensare al concetto di creatività? Come puoi pensare alla gentilezza? Questi concetti sarebbero rimasti astratti se non fosse stato per l’AI. È facile speculare, dicendo ‘questa è la mia definizione di gentilezza’, che non è matematicamente significativa, ma adesso con l’AI, è praticamente importante perché se vogliamo rendere l’AI gentile, dobbiamo dirglielo nel linguaggio della matematica cosa è la gentilezza, ad esempio”, ha detto il dottor Tanaka la scorsa settimana, ai margini della conferenza Upgrade.
All’inizio della loro ricerca, il Laboratorio PHI ha riconosciuto l’importanza di comprendere la natura “black box” dell’AI e dell’apprendimento automatico per sviluppare nuovi sistemi con una maggiore efficienza energetica per il calcolo. L’avanzamento dell’AI negli ultimi cinque anni, tuttavia, ha sollevato considerazioni di sicurezza e affidabilità sempre più importanti, che sono così diventate cruciali per le applicazioni industriali e le decisioni di governance sull’adozione dell’AI.
Attraverso il nuovo gruppo di ricerca, NTT Research affronterà le somiglianze tra intelligenza biologica e artificiale, sperando di svelare le complessità dei meccanismi dell’AI e di costruire una fusione più armoniosa della collaborazione uomo-AI.
Sebbene questo approccio sia nuovo nella sua integrazione dell’AI, non è nuovo. I fisici hanno cercato di rivelare i dettagli precisi delle relazioni tecnologiche e umane per secoli, dalla ricerca di Galileo Galilei su come si muovono gli oggetti e il suo contributo alla meccanica, a come il motore a vapore ha informato la comprensione della termodinamica durante la Rivoluzione Industriale. Nel XXI secolo, tuttavia, gli scienziati stanno cercando di comprendere come funziona l’AI in termini di formazione, accumulo di conoscenze e presa di decisioni in modo che, in futuro, possano essere progettate tecnologie AI più coese, sicure e affidabili.
“L’AI è una rete neurale, il modo in cui è strutturata è molto simile a come funziona il cervello umano; neuroni connessi da sinapsi, che sono tutti rappresentati da numeri all’interno di un computer. E poi è lì che crediamo che ci possa essere fisica… La fisica è prendere qualsiasi cosa dall’universo, formulare ipotesi matematiche sui suoi meccanismi interni e testarle”, ha detto il dottor Hanaka.
Il nuovo gruppo continuerà a collaborare con il Centro di Scienza del Cervello dell’Università di Harvard (CBS) e pianifica di collaborare con il professore associato di Stanford University Suya Ganguli, con il quale il dottor Tanaka ha co-scritto diversi articoli.
Tuttavia, il dottor Tanaka sottolinea che un approccio di scienza naturale e cross-industriale sarà fondamentale. Nel 2017, quando era un candidato al dottorato a Harvard, il ricercatore ha realizzato che voleva fare più della fisica tradizionale e seguire le orme dei suoi predecessori, da Galilei a Newton e Einstein, per aprire nuovi mondi concettuali nella fisica.
“Attualmente, l’AI è l’unico argomento di cui posso parlare con tutti. Come ricercatore, è fantastico perché tutti sono sempre pronti a parlare di AI e io imparo anche da ogni conversazione perché mi rendo conto di come le persone vedono e utilizzano l’AI in modo diverso, anche al di fuori dei contesti accademici. Vedere la missione di NTT come catalizzatore per innescare queste conversazioni, indipendentemente dalle loro provenienze, perché impariamo da ogni interazione”, ha concluso il dottor Tanaka.












