Intelligenza Artificiale
I ricercatori sviluppano lo strumento "DeepTrust" per aumentare l'affidabilità dell'IA

La sicurezza e l'affidabilità dell'intelligenza artificiale (AI) è uno degli aspetti più importanti della tecnologia. Viene costantemente migliorata e lavorata dai massimi esperti nei diversi campi e sarà fondamentale per la piena attuazione dell'IA in tutta la società.
Parte di questo nuovo lavoro sta uscendo dalla University of Southern California, dove i ricercatori dell'USC Viterbi Engineering hanno sviluppato un nuovo strumento in grado di generare indicatori automatici dell'affidabilità o meno degli algoritmi AI nei loro dati e previsioni.
La ricerca è stata pubblicata in Frontiere dell'Intelligenza Artificiale, intitolato "Dopotutto c'è speranza: quantificare l'opinione e l'affidabilità nelle reti neurali”. Gli autori dell'articolo includono Mingxi Cheng, Shahin Nazarian e Paul Bogdan dell'USC Cyber Physical Systems Group.
Attendibilità delle reti neurali
Uno dei compiti più importanti in quest'area è fare in modo che le reti neurali generino previsioni attendibili. In molti casi, questo è ciò che impedisce la piena adozione della tecnologia che si basa sull'intelligenza artificiale.
Ad esempio, i veicoli a guida autonoma devono agire in modo indipendente e prendere decisioni accurate con il pilota automatico. Devono essere in grado di prendere queste decisioni con estrema rapidità, decifrando e riconoscendo gli oggetti sulla strada. Questo è fondamentale, specialmente negli scenari in cui la tecnologia dovrebbe decifrare la differenza tra un dosso stradale, qualche altro oggetto o un essere vivente.
Altri scenari includono il veicolo a guida autonoma che decide cosa fare quando un altro veicolo lo affronta frontalmente, e la decisione più complessa di tutte è se quel veicolo a guida autonoma deve decidere tra colpire ciò che percepisce come un altro veicolo, qualche oggetto, o un essere vivente.
Tutto ciò significa che stiamo riponendo la massima fiducia nella capacità del software del veicolo a guida autonoma di prendere la decisione corretta in poche frazioni di secondo. Diventa ancora più difficile quando ci sono informazioni contrastanti provenienti da diversi sensori, come la visione artificiale delle telecamere e del Lidar.
L'autore principale Minxi Cheng ha deciso di intraprendere questo progetto dopo aver pensato: “Anche gli esseri umani possono essere indecisi in determinati scenari decisionali. Nei casi che coinvolgono informazioni contrastanti, perché le macchine non possono dirci quando non lo sanno?
Deep Trust
Lo strumento creato dai ricercatori si chiama DeepTrust ed è in grado di quantificare la quantità di incertezza, secondo Paul Bogdan, professore associato presso il Dipartimento di ingegneria elettrica e informatica di Ming Hsieh.
Il team ha trascorso quasi due anni a sviluppare DeepTrust, utilizzando principalmente la logica soggettiva per valutare le reti neurali. In un esempio del funzionamento dello strumento, è stato in grado di esaminare i sondaggi delle elezioni presidenziali del 2016 e prevedere che vi fosse un margine di errore maggiore per la vittoria di Hillary Clinton.
Lo strumento DeepTrust semplifica inoltre il test dell'affidabilità degli algoritmi di intelligenza artificiale normalmente addestrati su un massimo di milioni di punti dati. L'altro modo per farlo è controllare in modo indipendente ciascuno dei punti dati per testare l'accuratezza, che è un'attività che richiede molto tempo.
Secondo i ricercatori, l'architettura di questi sistemi di reti neurali è più accurata e la precisione e la fiducia possono essere massimizzate contemporaneamente.
“Per quanto ne sappiamo, non esiste un modello o uno strumento di quantificazione della fiducia per il deep learning, l’intelligenza artificiale e l’apprendimento automatico. Questo è il primo approccio e apre nuove direzioni di ricerca”, afferma Bogdan.
Bogdan ritiene inoltre che DeepTrust potrebbe aiutare a spingere l'IA in avanti fino al punto in cui è "consapevole e adattabile".