Leader di pensiero
La prossima “exoluzione” dell’AI

Oggi, trovandoci sull’orlo di una linea di faglia tecnologica, osserviamo il viaggio dalle LLM alle agenzie e, infine, all’AI agente e all’AGI, e non si tratta solo di modelli più grandi o di risposte più veloci. Si tratta anche di macchine che si muovono da assistenti passivi a collaboratori attivi e, forse, un giorno, pensatori indipendenti.
Tracciamo questo percorso ed esploriamo cosa significhi per il lavoro, l’esperienza e il ruolo stesso degli esseri umani nella formazione dell’intelligenza del domani.
La differenza tra LLM, sistemi basati su agenti e AI agente
Per comprendere meglio la differenza, ecco un esempio. Se chiedo a una LLM qualcosa come: “Voglio viaggiare da Chicago ad Austin, guidare non più di quattro ore al giorno e fermarmi in luoghi pittoreschi”, una LLM regolare restituirà una risposta statica in formato testo basata sulla generazione del linguaggio. Probabilmente risponderà solo alla richiesta senza eseguire un’analisi approfondita.
Un agente classificherebbe innanzitutto la richiesta come relativa ai viaggi. Quindi, determinerebbe quali dati sono necessari: percorsi utilizzando servizi di mapping, informazioni meteorologiche, costi del carburante, alberghi, ristoranti, ecc. Dopo di che, l’agente suddividerebbe la richiesta in sottocompiti e li instraderebbe a moduli specializzati o LLM addestrati su fonti rilevanti. Questo è l’orchestrazione e la coordinazione di più modelli e strumenti sotto una logica unificata.
Oggi, la maggior parte dei sistemi importanti come ChatGPT o Claude di Anthropic sono essenzialmente già agenti. Sebbene possa sembrare all’utente di interagire con un singolo modello, dietro le quinte c’è un’architettura complessa che coinvolge molti modelli e sistemi. Possono già gestire query complesse, ma le loro capacità sono per lo più limitate a fornire informazioni; non eseguono ancora azioni.
Un agente completamente autonomo è un sistema che raccoglie informazioni e può, ad esempio, prenotare autonomamente un hotel, acquistare un biglietto o iniziare un pagamento, a condizione di avere accesso alle API o ai dati dell’utente rilevanti. Tali agenti sono attualmente in fase di sviluppo iniziale. A questo punto, sono più come semi-agenti, in grado di elaborare informazioni ma non ancora di eseguire azioni autonome.
Un’area di discussione interessante nella comunità di ricerca è l’AI agente. A differenza di un agente regolare, il cui comportamento è scriptato dagli sviluppatori, l’AI agente è un sistema che decide autonomamente quali compiti eseguire, quali dati sono necessari e persino come continuare la propria formazione. Ciò va oltre l’esecuzione di istruzioni; coinvolge la presa di decisioni autonome. Tuttavia, l’AI agente rimane teorica a questo stadio; non esistono ancora sistemi del genere nella pratica.
AGI – il nuovo orizzonte. Ma è raggiungibile?
Meta ha investito in Scale AI tre mesi fa. L’obiettivo era unire le forze sul percorso per costruire l’AGI, l’Intelligenza Artificiale Generale, in grado di eseguire qualsiasi compito a livello umano o addirittura superarlo. Se l’AI di oggi è una rivoluzione tecnologica, l’AGI sarà una vera mega rivoluzione; a volte la chiamo “exoluzione”, intendendo l'”esodo” dell’AI dalle ombre. Chi la raggiungerà per primo otterrà un vantaggio strategico globale.
Per quanto riguarda la vicinanza all’effettiva AGI, dipende molto da come la definiamo. Sono d’accordo con la visione di Ilya Sutskever: l’AGI è un sistema in grado di eseguire qualsiasi compito intellettuale che un essere umano possa. Non solo rispondere a domande, ma ragionare, prendere decisioni, generalizzare e interpretare attraverso domini. La vera AGI è universale e non limitata a confini di compito stretti.
Nessuno dei modelli attuali ha raggiunto quel livello. Ci stiamo muovendo in quella direzione, ma la vera AGI, nel senso teorico, non esiste ancora. E forse è meglio così. Siamo ancora in una fase di approssimazione e probabilmente rimarremo lì per molto tempo.
La base dell’AGI sarà probabilmente un sistema basato su agenti. Non dipenderà necessariamente da un singolo LLM, perché proprio come nessun essere umano, per quanto brillante, può padroneggiare tutti i domini della conoscenza e delle abilità, nessun LLM può gestire l’intero spettro dei compiti AGI da solo. Ciò di cui abbiamo bisogno è una sorta di “intelligenza collettiva”: un’architettura in grado di coordinare più modelli e componenti.
L’AGI probabilmente emergerà non semplicemente come un agente progettato dall’uomo, ma come un meta-agente. Sarà un sistema che è parzialmente sviluppato ed evolve con l’aiuto dell’AI stessa. Ciò è importante perché i sistemi progettati interamente dagli esseri umani possono portare limitazioni innate. Coinvolgere l’AI nel processo di progettazione potrebbe aiutare a superare queste limitazioni e rendere il sistema più adattivo.
L’AGI probabilmente non verrà da una specifica scoperta. Non particolarmente LLM più grandi, agenti più intelligenti o architetture completamente nuove, ma piuttosto da una sintesi di tutte e tre. Probabilmente, qualcosa di fondamentalmente nuovo che trascende le categorie che attualmente utilizziamo.
“L’ultimo esame dell’umanità” e altri benchmark AGI
“L’ultimo esame dell’umanità” (HLE) è uno dei benchmark più ambiziosi attualmente discussi nel contesto delle LLM, degli agenti e dell’AGI. In sostanza, è un test composto da circa 2.500 domande che coprono una vasta gamma di discipline accademiche – matematica, fisica, biologia, chimica, ingegneria, informatica e persino scacchi. L’idea è valutare se un sistema AI possa risolvere problemi a un livello che riflette una vera comprensione umana.
I modelli linguistici attuali si eseguono molto male su HLE, spesso con un punteggio inferiore al 5% di accuratezza. Ciò è in netto contrasto con altri benchmark come MMLU o GPQA, dove i modelli raggiungono punteggi significativamente più alti. La difficoltà che i modelli hanno con HLE sottolinea quanto siano ancora lontani da una vera intelligenza generale.
È importante notare che una prestazione elevata su benchmark con dataset noti o ristretti non indica necessariamente la presenza di una vera intelligenza generale. Un modello può essere adattato o “addestrato al test”, il che può gonfiare le sue capacità apparenti. Quindi, anche un punteggio perfetto su HLE non significherebbe che abbiamo raggiunto l’AGI; significherebbe solo che abbiamo superato un particolare test.
Cosa muove l’AGI
Sono completamente d’accordo che i pilastri fondamentali dell’AGI sono dati, calcolo e talento. La situazione con il calcolo è chiara. I principali attori come Meta hanno cercato di produrre i propri chip, investendo miliardi nel processo di sviluppo dei chip. Ma le aziende dipendono ancora fortemente da altri chip e dalla potenza di calcolo di altri giocatori come Nvidia, che non solo forniscono il necessario hardware, ma comprendono anche l’importanza di aumentare la produzione.
Ci sono più domande sui dati e sui talenti. Internet è esaurito – non c’è pezzo di testo creato dall’uomo da fonti aperte che non sia stato utilizzato per l’addestramento al momento. Il volume totale di informazioni che l’umanità ha prodotto finora si rivela sorprendentemente piccolo. È per questo che le aziende stanno iniziando a collaborare attivamente con coloro che possono generare dati di alta qualità umana.
Automazione completa o uomo nel ciclo?
Un altro punto – il calo della domanda di annotazione dei dati manuale. Alcuni anni fa, l’industria stava scalando a piena velocità. Migliaia di annotatori sono stati assunti per alimentare la fame delle pipeline AI. Oggi, gran parte di quel momento si è spostato verso l’automazione. I modelli sono maturati e anche gli strumenti intorno a loro.
Prendiamo il riconoscimento facciale. Un tempo era uno dei principali driver del volume di annotazione delle immagini. Ma la categoria è sostanzialmente risolta ora. Modelli come YOLO, SAM e Samurai stanno rapidamente assorbendo il lavoro di routine. Questi sistemi comprimono settimane di sforzo manuale in pochi minuti, spesso con precisione sorprendente. Abbiamo anche implementato molti strumenti ML-assisted nella nostra piattaforma proprietaria Keylabs. Aiuta davvero a tagliare il flusso di lavoro di routine.
Ma tutti questi modelli sono limitati dalla loro generalizzazione e sono adatti per l’automazione di operazioni standard e uniformi. Casi complessi o unici richiedono ancora l’attenzione umana.
Stiamo allontanandoci dal vecchio paradigma in cui un annotatore era semplicemente una persona attenta ai dettagli che poteva riconoscere un oggetto o un’emozione. Nella nuova realtà, sono necessari professionisti: medici per annotare immagini mediche, programmatori per codificare, architetti per creare progetti, marketer per insight dei clienti e esperti militari per scenari di difesa.
Stiamo già vedendo casi reali, come piloti da combattimento che annotano dati per l’AI e guadagnano 1.000 dollari all’ora per la loro esperienza. Perché tali specialisti sono rari e le loro conoscenze sono critiche per l’addestramento di AI ad alte prestazioni.
Il mondo sta cambiando: sempre più persone stanno diventando operatori e “allenatori” di intelligenza artificiale. Solo l’altro giorno, ho ricevuto un messaggio su LinkedIn che mi chiedeva di controllare un set di dati per un’app AI progettata per i CEO. Nel futuro, chiunque di noi potrebbe ricevere un’offerta per lavorare come annotatore, non solo qualcuno che clicca pulsanti, ma un esperto la cui conoscenza plasma l’intelligenza del domani.
Già viviamo in questa nuova realtà, un mondo di etichettatura dei dati e addestramento AI. Coloro che la riconoscono e si adattano otterranno un vantaggio significativo.












