Seguici sui social

Navigare nella curva di apprendimento: la lotta dell'IA con la conservazione della memoria

Intelligenza Artificiale

Navigare nella curva di apprendimento: la lotta dell'IA con la conservazione della memoria

mm

Mentre i confini dell’intelligenza artificiale (AI) si espandono continuamente, i ricercatori sono alle prese con una delle maggiori sfide nel campo: la perdita di memoria. Conosciuto come “oblio catastrofico” in termini di intelligenza artificiale, questo fenomeno ostacola gravemente il progresso dell’apprendimento automatico, imitando la natura sfuggente dei ricordi umani. Un team di ingegneri elettrici della Ohio State University sta studiando come l’apprendimento continuo, la capacità di un computer di acquisire costantemente conoscenza da una serie di compiti, influisca sulle prestazioni complessive degli agenti di intelligenza artificiale.

Colmare il divario tra l'apprendimento umano e quello automatico

Ness Shroff, Ohio Eminent Scholar e Professore di Informatica e Ingegneria presso l'Ohio State University, sottolinea l'importanza di superare questo ostacolo. "Mentre le applicazioni di guida autonoma o altri sistemi robotici apprendono cose nuove, è importante che non dimentichino le lezioni già apprese per la nostra sicurezza e la loro", ha affermato Shroff. E continua: "La nostra ricerca approfondisce le complessità dell'apprendimento continuo in queste reti neurali artificiali e ciò che abbiamo scoperto sono intuizioni che iniziano a colmare il divario tra il modo in cui una macchina apprende e il modo in cui un essere umano apprende".

La ricerca rivela che, analogamente agli esseri umani, le reti neurali artificiali eccellono nel conservare le informazioni quando affrontano compiti diversi in successione piuttosto che compiti con caratteristiche sovrapposte. Questa intuizione è fondamentale per capire come l'apprendimento continuo può essere ottimizzato nelle macchine per assomigliare da vicino alle capacità cognitive degli esseri umani.

Il ruolo della diversità e della sequenza dei compiti nell'apprendimento automatico

I ricercatori presenteranno le loro scoperte alla 40a conferenza internazionale annuale sull'apprendimento automatico a Honolulu, Hawaii, un evento di punta nel campo dell'apprendimento automatico. La ricerca mette in luce i fattori che contribuiscono al periodo di tempo in cui una rete artificiale conserva conoscenze specifiche.

Shroff spiega: "Per ottimizzare la memoria di un algoritmo, compiti diversi dovrebbero essere insegnati fin dalle prime fasi del processo di apprendimento continuo. Questo metodo amplia la capacità della rete di acquisire nuove informazioni e migliora la sua capacità di apprendere successivamente compiti più simili". Pertanto, la similarità dei compiti, le correlazioni positive e negative e la sequenza di apprendimento influenzano significativamente la ritenzione della memoria nelle macchine.

Lo scopo di tali sistemi dinamici di apprendimento permanente è aumentare la velocità con cui gli algoritmi di apprendimento automatico possono essere scalati e adattarli per gestire ambienti in evoluzione e situazioni impreviste. L'obiettivo finale è consentire a questi sistemi di rispecchiare le capacità di apprendimento degli esseri umani.

La ricerca condotta da Shroff e dal suo team, inclusi i ricercatori post-dottorato dello stato dell'Ohio Sen Lin e Peizhong Ju e i professori Yingbin Liang, pone le basi per macchine intelligenti che potrebbero adattarsi e imparare in modo simile agli umani. "Il nostro lavoro annuncia una nuova era di macchine intelligenti in grado di apprendere e adattarsi come le loro controparti umane", afferma Shroff, sottolineando l'impatto significativo di questo studio sulla nostra comprensione dell'IA.

Alex McFarland è un giornalista e scrittore specializzato in intelligenza artificiale che esplora gli ultimi sviluppi nel campo dell'intelligenza artificiale. Ha collaborato con numerose startup e pubblicazioni di intelligenza artificiale in tutto il mondo.