Intelligenza artificiale
Team Sviluppa Approccio per Confrontare Reti Neurali

Un team di ricercatori presso il Los Alamos National Laboratory ha sviluppato un nuovo approccio per confrontare reti neurali. Secondo il team, questo nuovo approccio guarda all’interno della “scatola nera” dell’intelligenza artificiale (AI) e aiuta a comprendere il comportamento delle reti neurali. Le reti neurali, che riconoscono modelli all’interno di set di dati, vengono utilizzate per una vasta gamma di applicazioni come sistemi di riconoscimento facciale e veicoli autonomi.
Il team ha presentato il loro documento, “If You’ve Trained One You’ve Trained Them All: Inter-Architecture Similarity Increases With Robustness,” alla Conferenza sull’incertezza nell’intelligenza artificiale.
Haydn Jones è un ricercatore nel gruppo di Ricerca Avanzata sui Sistemi Cibernetici presso Los Alamos e autore principale della ricerca.
Miglior Comprensione delle Reti Neurali
“La comunità di ricerca sull’intelligenza artificiale non ha necessariamente una comprensione completa di cosa stanno facendo le reti neurali; ci danno buoni risultati, ma non sappiamo come o perché,” ha detto Jones. “Il nostro nuovo metodo fa un lavoro migliore nel confrontare le reti neurali, che è un passo cruciale verso una migliore comprensione della matematica dietro l’AI.
La nuova ricerca giocherà anche un ruolo nell’aiutare gli esperti a comprendere il comportamento delle reti neurali robuste.
Mentre le reti neurali hanno prestazioni elevate, sono anche fragili. Piccoli cambiamenti nelle condizioni, come un segnale di stop parzialmente coperto che viene elaborato da un veicolo autonomo, possono causare alla rete neurale di non riconoscere il segnale. Ciò significa che potrebbe non fermarsi, il che può essere pericoloso.
Addestramento Avversario di Reti Neurali
I ricercatori hanno cercato di migliorare questo tipo di reti neurali esaminando modi per migliorare la robustezza della rete. Uno degli approcci consiste nell'”attaccare” le reti durante il loro processo di addestramento, dove i ricercatori introducono intenzionalmente aberrazioni mentre addestrano l’AI per ignorarle. Il processo, noto come addestramento avversario, rende più difficile per le reti essere ingannate.
Il team ha applicato la nuova metrica di similarità della rete a reti neurali addestrate avversariamente. Sono stati sorpresi di scoprire che l’addestramento avversario causa la convergenza delle reti neurali nel dominio della visione artificiale a rappresentazioni di dati simili, indipendentemente dall’architettura della rete, man mano che aumenta la magnitudine dell’attacco.
“Abbiamo scoperto che quando addestriamo le reti neurali per essere robuste contro gli attacchi avversari, iniziano a fare le stesse cose,” ha detto Jones.
Non è la prima volta che gli esperti hanno cercato di trovare l’architettura perfetta per le reti neurali. Tuttavia, i nuovi risultati dimostrano che l’introduzione dell’addestramento avversario riduce notevolmente il divario, il che significa che la comunità di ricerca sull’AI potrebbe non dover esplorare così tante nuove architetture, poiché ora si sa che l’addestramento avversario causa la convergenza di architetture diverse a soluzioni simili.
“Trovando che le reti neurali robuste sono simili tra loro, stiamo rendendo più facile comprendere come potrebbe funzionare realmente l’AI robusta,” ha detto Jones. “Potremmo anche scoprire indizi su come la percezione si verifica negli esseri umani e in altri animali.”










