Intelligenza artificiale
Ipotesi comuni sui malfunzionamenti del Machine Learning potrebbero essere sbagliate

Le reti neurali profonde sono uno degli aspetti più fondamentali dell’intelligenza artificiale (AI), poiché vengono utilizzate per elaborare immagini e dati attraverso la modellazione matematica. Sono responsabili di alcuni dei più grandi progressi nel settore, ma possono anche malfunzionare in vari modi. Questi malfunzionamenti possono avere un impatto piccolo o inesistente, come una semplice errata identificazione, o uno più drammatico e letale, come un guasto di un veicolo autonomo.
Nuove ricerche provenienti dall’Università di Houston suggeriscono che le nostre ipotesi comuni su questi malfunzionamenti potrebbero essere sbagliate, il che potrebbe aiutare a valutare l’affidabilità delle reti in futuro.
L’articolo è stato pubblicato su Nature Machine Intelligence nel mese di novembre.
“Esempi avversari”
Il machine learning e altri tipi di intelligenza artificiale sono cruciali in molti settori e compiti, come i sistemi bancari e di sicurezza informatica. Secondo Cameron Buckner, professore associato di filosofia alla UH, è necessario comprendere gli errori causati dagli “esempi avversari”. Questi esempi avversari si verificano quando un sistema di reti neurali profonde valuta male immagini e altri dati quando si trova di fronte a informazioni al di fuori degli input di addestramento utilizzati per sviluppare la rete.
Gli esempi avversari sono rari poiché spesso sono creati o scoperti da un’altra rete di machine learning.
“Alcuni di questi eventi avversari potrebbero essere invece artefatti, e dobbiamo conoscerli meglio per capire quanto sono affidabili queste reti”, ha scritto Buckner.
Buckner afferma che il malfunzionamento potrebbe essere causato dall’interazione tra i modelli reali coinvolti e ciò che la rete si propone di elaborare, il che significa che non è un errore completo.
Modelli come artefatti
“Comprendere le implicazioni degli esempi avversari richiede di esplorare una terza possibilità: che almeno alcuni di questi modelli siano artefatti”, ha detto Buckner. “Pertanto, ci sono attualmente sia costi nel semplicemente scartare questi modelli che pericoli nell’usarli in modo ingenuo”.
Anche se non è sempre il caso, il malinteso intenzionale è il rischio più alto riguardo a questi eventi avversari che causano malfunzionamenti del machine learning.
“Significa che attori malintenzionati potrebbero ingannare sistemi che si basano su una rete altrimenti affidabile”, ha detto Buckner. “Ciò ha applicazioni di sicurezza”.
Ciò potrebbe essere il caso di hacker che violano un sistema di sicurezza basato sulla tecnologia di riconoscimento facciale o segnali stradali etichettati in modo errato per confondere i veicoli autonomi.
Altre ricerche precedenti hanno dimostrato che alcuni degli esempi avversari sono naturalmente presenti, verificandosi quando un sistema di machine learning interpreta male i dati attraverso un’interazione inaspettata, diversa da errori nei dati. Questi esempi naturalmente presenti sono rari e l’unico modo attuale per scoprirli è attraverso l’AI.
Tuttavia, Buckner afferma che i ricercatori devono ripensare i modi in cui affrontano le anomalie.
Queste anomalie, o artefatti, sono spiegate da Buckner attraverso l’analogia di un riflesso di luce in una fotografia, che non è causato da un difetto nell’obiettivo della macchina fotografica, ma piuttosto dall’interazione della luce con la macchina fotografica.
Se si sa come interpretare il riflesso di luce, è possibile estrarre informazioni importanti come la posizione del sole. A causa di ciò, Buckner ritiene che sia possibile estrarre informazioni altrettanto preziose da eventi avversari nel machine learning causati dall’artefatto.
Buckner afferma anche che tutto ciò non significa automaticamente che il deep learning non sia valido.
“Alcuni di questi eventi avversari potrebbero essere artefatti”, ha detto. “Dobbiamo sapere cosa sono questi artefatti per poter conoscere quanto sono affidabili le reti”.










