Intelligenza artificiale
Quando gli Agenti di Intelligenza Artificiale Iniziano a Costruire Intelligenza Artificiale: L’Esplosione di Intelligenza Ricorsiva per la Quale Nessuno è Preparato

Per decenni, l’intelligenza artificiale è avanzata in passi curati, per lo più lineari. I ricercatori hanno costruito modelli. Gli ingegneri hanno migliorato le prestazioni. Le organizzazioni hanno distribuito sistemi per automatizzare compiti specifici. Ogni miglioramento dipendeva fortemente dalla progettazione e dalla supervisione umana. Quel modello si sta ora rompendo. Silenziosamente ma in modo decisivo, i sistemi di intelligenza artificiale stanno superando una soglia oltre la quale non sono più solo strumenti costruiti dagli esseri umani. Stanno diventando costruttori essi stessi.
Gli agenti di intelligenza artificiale stanno iniziando a progettare, valutare e distribuire altri sistemi di intelligenza artificiale. Facendo ciò, creano cicli di feedback in cui ogni generazione migliora la successiva. Questo passaggio non si annuncia con titoli drammatici. Si svolge attraverso articoli di ricerca, strumenti per sviluppatori e piattaforme aziendali. Tuttavia, le sue implicazioni sono profonde. Quando l’intelligenza può migliorare se stessa in modo ricorsivo, il progresso non segue più i tempi o le intuizioni umane. Si accelera.
Questo articolo esplora come siamo arrivati a questo momento, perché l’intelligenza ricorsiva è importante e perché la società è molto meno preparata di quanto dovrebbe essere. L’esplosione di intelligenza, un tempo un’idea filosofica, è ora diventata una sfida concreta di ingegneria.
L’Evoluzione dell’Esplosione di Intelligenza
L’idea che una macchina potesse migliorare la propria intelligenza precede il calcolo moderno. All’inizio degli anni ’60, il matematico britannico I. J. Good introdusse il concetto di “esplosione di intelligenza“. Il suo ragionamento era che: se una macchina fosse diventata abbastanza intelligente da migliorare la propria progettazione, anche solo leggermente, la versione migliorata sarebbe stata migliore nel migliorare la successiva. Questo ciclo poteva ripetersi rapidamente, portando a una crescita ben oltre la comprensione o il controllo umano. All’epoca, questo era un esperimento di pensiero filosofico, discusso più in teoria che in pratica.
Diversi decenni dopo, l’idea ha guadagnato un fondamento tecnico attraverso il lavoro del computer scientist Jürgen Schmidhuber. La sua proposta della Gödel Machine descrisse un sistema che poteva riscrivere qualsiasi parte del proprio codice, a condizione che potesse dimostrare formalmente che il cambiamento avrebbe migliorato le sue prestazioni future. A differenza dei sistemi di apprendimento tradizionali, che regolano i parametri all’interno di architetture fisse, la Gödel Machine poteva alterare le proprie regole di apprendimento. Sebbene ancora teorico, questo lavoro ha riformulato l’esplosione di intelligenza come qualcosa che potrebbe essere studiato, formalizzato e infine costruito.
Il passaggio finale dalla teoria alla pratica è arrivato con l’emergere degli agenti di intelligenza artificiale moderni. Questi sistemi non generano semplicemente output in risposta a prompt. Pianificano, ragionano, agiscono, osservano i risultati e regolano il comportamento nel tempo. Con l’emergere di architetture agentiche, l’esplosione di intelligenza si è spostata dalla filosofia all’ingegneria. Esperimenti precoci, come i concetti di Darwin Gödel Machine, suggeriscono sistemi che evolvono attraverso un miglioramento selettivo iterativo. Ciò che rende questo momento diverso è la ricorsività. Quando un agente di intelligenza artificiale può creare e raffinare altri agenti, imparando da ogni iterazione, il miglioramento si compone.
Quando gli Agenti di Intelligenza Artificiale Iniziano a Costruire Intelligenza Artificiale
Due tendenze principali stanno guidando questa transizione. La prima è l’emergere di sistemi di intelligenza artificiale agentiche. Questi sistemi perseguono obiettivi su periodi estesi, dividono i compiti in passaggi, coordinano gli strumenti e si adattano in base al feedback. Non sono modelli statici. Sono processi.
La seconda tendenza è l’apprendimento automatico delle macchine. Esistono ora sistemi che possono progettare architetture, regolare i parametri, generare pipeline di addestramento e persino proporre nuovi algoritmi con un input umano minimo. Quando il ragionamento agente si combina con la creazione automatica di modelli, l’intelligenza artificiale guadagna la capacità di costruire intelligenza artificiale.
Ciò non è più uno scenario ipotetico. Agenti autonomi come AutoGPT dimostrano come un singolo obiettivo possa scatenare cicli di pianificazione, esecuzione, valutazione e revisione. In ambienti di ricerca, sistemi come Sakana AI’s Scientist-v2 e DeepMind’s AlphaEvolve mostrano agenti che progettano esperimenti, propongono algoritmi e raffinano soluzioni attraverso un feedback iterativo. Nella ricerca di architetture neurali, i sistemi di intelligenza artificiale scoprono già strutture di modelli che rivaleggiano o superano le reti progettate dagli esseri umani. Questi sistemi non stanno solo risolvendo problemi. Stanno migliorando i meccanismi utilizzati per risolvere problemi. Ogni ciclo produce strumenti migliori, che consentono cicli migliori.
Per scalare questo processo, i ricercatori e le aziende si affidano sempre più a architetture di orchestratori. Un meta-agente centrale riceve un obiettivo di alto livello. Lo scompone in sottoproblemi, genera agenti specializzati per affrontarli, valuta i risultati utilizzando dati del mondo reale e integra i migliori risultati. Le progettazioni scadenti vengono scartate e quelle di successo vengono rafforzate. Nel tempo, l’orchestratore diventa migliore nel progettare gli agenti stessi.
Mentre la timeline esatta per quando gli agenti di intelligenza artificiale costruiranno e miglioreranno completamente altri sistemi di intelligenza artificiale rimane incerta, le traiettorie di ricerca attuali e le valutazioni di importanti ricercatori di intelligenza artificiale e pratici suggeriscono che la transizione si sta avvicinando più velocemente di quanto molti si aspettino. Versioni precoci e limitate di questa capacità stanno già apparendo in laboratori di ricerca e distribuzioni aziendali, dove gli agenti stanno iniziando a progettare, valutare e raffinare altri sistemi con un coinvolgimento umano limitato.
L’Emergere dell’Imprevedibilità
L’intelligenza ricorsiva introduce sfide che l’automazione tradizionale non ha mai affrontato. Una di queste sfide è l’imprevedibilità a livello di sistema. Quando molti agenti interagiscono, il loro comportamento collettivo può divergere dalle intenzioni dietro le loro progettazioni individuali. Questo fenomeno è noto come comportamento emergente.
L’emergenza sorge non da un singolo componente difettoso, ma dalle interazioni tra molti componenti competenti. Considerate i sistemi di trading automatici. Ogni agente di trading può seguire regole razionali progettate per massimizzare il profitto all’interno di vincoli. Tuttavia, quando migliaia di tali agenti interagiscono ad alta velocità, si possono formare cicli di feedback. La reazione di un agente può scatenare la risposta di un altro, che può scatenare un’altra, fino a quando il sistema non si destabilizza. I crolli del mercato possono verificarsi senza che un singolo agente si guasti. Questo fallimento non è guidato da intenti maliziosi. Risulta dalla mancanza di allineamento tra l’ottimizzazione locale e gli obiettivi a livello di sistema. La stessa dinamica può applicarsi anche ad altri campi.
La Crisi di Allineamento Multi-Agente
La ricerca tradizionale sull’allineamento dell’intelligenza artificiale si è concentrata sull’allineamento di un singolo modello ai valori umani. La domanda era semplice: come possiamo assicurarci che questo sistema si comporti come intendiamo? Quella domanda diventa significativamente più difficile quando il sistema contiene decine, centinaia o migliaia di agenti interagenti. Allineare singoli agenti non garantisce un comportamento di sistema allineato. Anche quando ogni componente segue le proprie regole, il risultato collettivo può essere dannoso. I metodi di sicurezza esistenti non sono ben adattati per rilevare o prevenire questi fallimenti.
I rischi per la sicurezza si moltiplicano anche. Un agente compromesso in una rete di agenti multipli può avvelenare le informazioni su cui gli altri agenti si affidano. Un singolo archivio di dati corrotto può propagare un comportamento non allineato in tutto il sistema. Le vulnerabilità dell’infrastruttura che minacciano un agente possono propagarsi verso l’alto per minacciare i modelli fondamentali. La superficie di attacco si espande con ogni nuovo agente aggiunto.
Nel frattempo, il divario di governance continua ad allargarsi. La ricerca di Microsoft e altre organizzazioni ha trovato che solo circa una azienda su dieci ha una strategia chiara per la gestione delle identità e autorizzazioni degli agenti di intelligenza artificiale. Si prevede che oltre 40 miliardi di identità autonome esisteranno entro la fine di quest’anno. La maggior parte opera con un accesso ampio ai dati e ai sistemi, ma senza i protocolli di sicurezza applicati agli utenti umani. I sistemi stanno avanzando rapidamente. I meccanismi di controllo non lo sono.
Perdita di Supervisione
Il rischio più grave introdotto dal miglioramento ricorsivo non è la capacità grezza, ma la graduale perdita di una supervisione umana significativa. Le principali organizzazioni di ricerca stanno attivamente sviluppando sistemi che possono modificare e ottimizzare le proprie architetture con poco o nessun coinvolgimento umano. Ogni miglioramento consente al sistema di produrre successori più capaci, creando un ciclo di feedback senza un punto in cui gli esseri umani rimangono affidabilmente in controllo.
Mentre la supervisione umana diminuisce, le implicazioni diventano profonde. Quando i cicli di miglioramento si svolgono alla velocità delle macchine, gli esseri umani non possono più esaminare ogni modifica, capire ogni decisione di progettazione o intervenire prima che piccole deviazioni si accumulino in rischi sistemici. La supervisione si sposta dal controlloetto all’osservazione retrospettiva. In tali condizioni, l’allineamento diventa più difficile da verificare e più facile da erodere, poiché i sistemi sono costretti a portare avanti i loro obiettivi e vincoli attraverso successive auto-modifiche. Senza meccanismi affidabili per preservare l’intento attraverso queste iterazioni, il sistema può continuare a funzionare efficacemente mentre si allontana silenziosamente dai valori, dalle priorità e dalla governance umana
Il Punto Chiave
L’intelligenza artificiale è entrata in una fase in cui può migliorare se stessa costruendo versioni migliori di se stessa. L’intelligenza ricorsiva guidata dagli agenti promette guadagni straordinari, ma introduce anche rischi che si espandono più velocemente della supervisione, della governance e dell’intuizione umana. La sfida che ci attende non è se questo passaggio possa essere fermato, ma se la sicurezza, l’allineamento e la responsabilità possano avanzare allo stesso ritmo della capacità. Se non lo fanno, l’esplosione di intelligenza si muoverà oltre la nostra capacità di guidarla.












