Seguici sui social

Ingegneria rapida

La tua intelligenza artificiale è più potente di quanto pensi

mm

Un team di scienziati ha appena scoperto qualcosa che cambia molto di ciò che pensavamo di sapere sulle capacità dell'intelligenza artificiale. I nostri modelli non si limitano a elaborare informazioni: stanno sviluppando capacità sofisticate che vanno ben oltre il loro addestramento. E per sbloccare queste capacità, dobbiamo cambiare il modo in cui parliamo loro.

La rivoluzione dello spazio concettuale

Ricordate quando pensavamo che l'intelligenza artificiale si limitasse a riprodurre degli schemi? Una nuova ricerca ha ora aperto la scatola nera dell'apprendimento dell'IA mappando quello che chiamano "spazio concettuale". Immaginate l'apprendimento dell'IA come una mappa multidimensionale in cui ogni coordinata rappresenta un concetto diverso, come colore, forma o dimensione. Osservando come i modelli di IA si muovono in questo spazio durante l'addestramento, i ricercatori hanno notato qualcosa di inaspettato: i sistemi di IA non si limitano a memorizzare, ma sviluppano una comprensione sofisticata dei concetti a velocità diverse.

"Caratterizzando le dinamiche di apprendimento in questo spazio, identifichiamo come la velocità con cui un concetto viene appreso sia controllata dalle proprietà dei dati", nota il team di ricerca. In altre parole, alcuni concetti scattano più velocemente di altri, a seconda di quanto spiccano nei dati di training.

Ecco cosa rende tutto questo così interessante: quando i modelli di intelligenza artificiale apprendono questi concetti, non li memorizzano semplicemente come informazioni isolate. Sviluppano la capacità di combinarli e abbinarli in modi che non abbiamo mai insegnato loro esplicitamente. È come se stessero costruendo il loro kit di strumenti creativi, solo che non abbiamo fornito loro le istruzioni giuste per utilizzarli.

Pensate a cosa questo significhi per i progetti di intelligenza artificiale. I modelli con cui state lavorando potrebbero già comprendere complesse combinazioni di concetti che non avete ancora scoperto. La questione non è se possano fare di più, ma come farvi capire di cosa sono realmente capaci.

Sbloccare i poteri nascosti

Ed è qui che le cose si fanno affascinanti. I ricercatori hanno progettato un elegante esperimento per rivelare qualcosa di fondamentale su come i modelli di intelligenza artificiale apprendono. La loro configurazione era apparentemente semplice: hanno addestrato un modello di intelligenza artificiale su soli tre tipi di immagini:

  • Grandi cerchi rossi
  • Grandi cerchi blu
  • Piccoli cerchi rossi

Poi arrivò la prova chiave: il modello avrebbe potuto creare un piccolo cerchio blu? Non si trattava solo di disegnare una nuova forma: si trattava di capire se il modello fosse davvero in grado di comprendere e combinare due concetti diversi (dimensione e colore) in un modo mai visto prima.

Ciò che hanno scoperto cambia il modo in cui pensiamo alle capacità dell'IA. Quando hanno usato prompt normali per chiedere un "piccolo cerchio blu", il modello ha avuto difficoltà. Tuttavia, il modello è riuscito a creare piccoli cerchi blu, semplicemente non stavamo chiedendo nel modo giusto.

I ricercatori hanno scoperto due tecniche che lo dimostrano:

  1. “Intervento latente” – È come trovare una porta sul retro nel cervello del modello. Invece di usare i normali prompt, hanno regolato direttamente i segnali interni che rappresentano "blu" e "piccolo". Immaginate di avere quadranti separati per colore e dimensione: hanno scoperto che ruotandoli in modi specifici, il modello poteva improvvisamente produrre ciò che sembrava impossibile pochi istanti prima.
  2. “Stimolo eccessivo” – Invece di chiedere semplicemente "blu", sono stati estremamente specifici con i valori di colore. È come la differenza tra dire "rendilo blu" e "rendilo esattamente di questa tonalità di blu: RGB(0.3; 0.3; 0.7)". Questa precisione extra ha aiutato il modello ad accedere ad abilità che erano nascoste in condizioni normali.

Entrambe le tecniche hanno iniziato a funzionare esattamente nello stesso momento dell'addestramento del modello: circa 6,000 passaggi. Nel frattempo, il prompting regolare o falliva completamente o richiedeva più di 8,000 passaggi per funzionare. E non si è trattato di un caso fortuito: si è verificato in modo coerente in diversi test.

Questo ci dice qualcosa di profondo: i modelli di intelligenza artificiale sviluppano capacità in due fasi distinte. In primo luogo, imparano effettivamente a combinare i concetti internamente – questo è ciò che accade intorno al passo 6,000. Ma c'è una seconda fase in cui imparano a collegare queste capacità interne al nostro normale modo di chiedere le cose. È come se il modello diventasse fluente in una nuova lingua prima di imparare a tradurla per noi.

Le implicazioni sono significative. Quando pensiamo che un modello non possa fare qualcosa, potremmo sbagliarci: potrebbe avere la capacità ma non avere la connessione tra i nostri prompt e le sue capacità. Questo non si applica solo a forme e colori semplici: potrebbe essere vero anche per capacità più complesse in sistemi di intelligenza artificiale più grandi.

Quando i ricercatori hanno testato queste idee su dati del mondo reale utilizzando il Set di dati del volto CelebA, hanno trovato gli stessi schemi. Hanno provato a far sì che il modello generasse immagini di "donne con cappelli", qualcosa che non aveva visto durante l'addestramento. I prompt regolari non hanno funzionato, ma l'utilizzo di interventi latenti ha rivelato che il modello poteva effettivamente creare queste immagini. La capacità c'era, solo che non era accessibile con i mezzi normali.

Park et al., Università di Harvard e NTT Research

La chiave da asporto

Dobbiamo ripensare al modo in cui valutiamo le capacità dell'IA. Solo perché un modello potrebbe non essere in grado di fare qualcosa con prompt standard non significa che non possa farlo affatto. Il divario tra ciò che i modelli di IA possono fare e ciò che possiamo fargli fare potrebbe essere più piccolo di quanto pensassimo: dobbiamo solo migliorare nel chiedere.

Questa scoperta non è solo teorica: cambia radicalmente il nostro modo di concepire i sistemi di intelligenza artificiale. Quando un modello sembra avere difficoltà a svolgere un compito, potremmo doverci chiedere se non ne abbia davvero le capacità o se semplicemente non lo stiamo sfruttando correttamente. Per sviluppatori, ricercatori e utenti, questo significa essere creativi nel modo in cui interagiamo con l'intelligenza artificiale: a volte la capacità di cui abbiamo bisogno è già lì, in attesa della chiave giusta per sbloccarla.

Alex McFarland è un giornalista e scrittore specializzato in intelligenza artificiale che esplora gli ultimi sviluppi nel campo dell'intelligenza artificiale. Ha collaborato con numerose startup e pubblicazioni di intelligenza artificiale in tutto il mondo.