Connect with us

Leader di pensiero

Pensare come un essere umano: può l’IA sviluppare un ragionamento analogico?

mm

Quando si trova di fronte a qualcosa di nuovo, l’essere umano istintivamente cerca confronti. Un bambino che impara sugli atomi potrebbe sentire che gli elettroni orbitano intorno al nucleo “come i pianeti orbitano intorno al sole”. Un imprenditore potrebbe presentare la sua startup come “Uber per toelettatura di animali”. Uno scienziato potrebbe dire a un pubblico non specializzato che il cervello elabora le informazioni “come un computer”.

Questo salto mentale – vedere come una cosa assomiglia a un’altra nella sua struttura più profonda – si chiama ragionamento analogico. E potrebbe essere l’ingrediente che separa l’intelligenza umana dall’IA nella sua forma attuale. Se vogliamo sviluppare un’Intelligenza Artificiale Generale – il Santo Graal dell’IA che finora si è rivelato elusivo – dobbiamo capire se è possibile per le macchine imparare a pensare analogicamente. Le poste in gioco non potrebbero essere più alte. Se la risposta è “No”, allora anche i sistemi di IA più sofisticati rimarranno per sempre nulla più che calcolatori glorificati. Saranno incapaci di risolvere problemi che richiedono più di una riorganizzazione dei dati su cui sono stati addestrati.

L’architettura della comprensione

Il ragionamento analogico funziona a livello di somiglianze strutturali, piuttosto che superficiali. Ad esempio, cosa rende simili i cuori e le pompe idrauliche? Certamente non il loro aspetto fisico. È il fatto che entrambi svolgono la stessa funzione, ovvero far circolare un fluido all’interno di un sistema. Ed è proprio questa capacità di mappare le relazioni tipiche in un contesto su un altro contesto che rende l’apprendimento, la creatività e la risoluzione dei problemi umani così unici.

Non c’è carenza di esempi nel mondo reale. Prendiamo August Kekulé, il brillante chimico tedesco, che ricevette un suggerimento sulla struttura del benzene sotto forma di sogno in cui vide un serpente che si morde la coda. Oggi, i programmatori applicano lezioni sull’organizzazione di una cucina quando strutturano il codice, e gli insegnanti spiegano la corrente elettrica paragonandola all’acqua che fluisce attraverso tubi.

Tuttavia, i sistemi di IA attuali trovano questa abilità cognitiva comune molto difficile. Quando sollecitati, i moderni modelli linguistici (LLM) sono più che felici di spiegare perché “il tempo è denaro” o di completare rompicapo di ragionamento verbale. Ma prove sempre più numerose suggeriscono che spesso stanno impegnandosi in un raffinato pattern matching, piuttosto che in un vero e proprio mapping strutturale. Quando i ricercatori presentano questi modelli con nuovi problemi analogici che si discostano dai loro dati di addestramento, le prestazioni spesso calano. Ciò avviene perché i LLM eccellono nel riprodurre analogie che hanno visto prima, ma esitano quando vengono chiesti di forgiare nuove connessioni.

Nessun ragionamento analogico, nessun AGI

Evidentemente, il ragionamento analogico è il sine qua non dell’AGI. Senza di esso, i sistemi di IA rimangono fragili, incapaci di adattare la conoscenza che è rilevante in un dominio per risolvere problemi in un altro. Ad esempio, immaginate un’auto a guida autonoma che ha imparato a navigare nelle strade soleggiate della California, ma non può extrapolare quell’apprendimento per gestire condizioni nevose. Il sistema di IA dell’auto è un costoso pattern matcher, non un sistema in grado di vera intelligenza. La vera intelligenza richiederebbe la flessibilità cognitiva per riconoscere che guidare su strade ghiacciate è strutturalmente paragonabile ad altre situazioni di superfici scivolose, anche se i dettagli differiscono.

Lo stesso principio si applica in domini al di là dei veicoli autonomi, naturalmente. Il pensiero analogico guida anche i progressi nella scienza, nella diagnosi medica, nel ragionamento giuridico e nelle imprese creative. I sistemi di IA senza questa capacità assomigliano a uno studioso che ha memorizzato un’intera biblioteca, ma non può sintetizzare quella conoscenza attraverso le discipline. Impressionante, certo, ma solo in un modo limitato e ristretto.

Costruire la mente analogica

Quindi, cosa ci vorrebbe per sviluppare sistemi di IA in grado di ragionamento analogico simile a quello umano? Sulla base di ricerche emergenti e della natura fondamentale del pensiero analogico, diverse condizioni e tecniche critiche sembrano essere necessarie.

Dati di addestramento ricchi e diversificati a livello strutturale

Il primo requisito è avere sistemi di IA addestrati su dati che vanno oltre i modelli di testo a livello superficiale. Internet, con il suo vasto repository di articoli scientifici, documentazione tecnica, opere creative e contenuti esplicativi, è un buon punto di partenza. Ma non tutti i dati di Internet saranno utili. Ciò che è richiesto è diversità strutturale. In altre parole, per guidare i sistemi di IA a imparare a riconoscere modelli astratti, gli sviluppatori dovrebbero iniziare a esporli a contrasti fin dal primo giorno di addestramento. I loro dati di addestramento potrebbero presentare progetti architettonici accanto a partiture musicali, prove matematiche insieme a poesia, o argomenti legali accanto a ricette di cucina.

Poiché ogni dominio incorpora tipi diversi di strutture relazionali, un AGI in potenza trarrebbe beneficio da questo tipo di esercizio.

Inoltre, questi dati devono preservare e mettere in evidenza le relazioni strutturali, non solo le correlazioni statistiche. Grafi di conoscenza, diagrammi causali e relazioni tra concetti esplicitamente mappate potrebbero aiutare i sistemi di IA a imparare a “vedere” la struttura invece di memorizzare associazioni meccanicamente. Pensateci come insegnare all’IA non solo cosa sono le cose, ma come si relazionano tra loro in modi principati.

Testare al di là del set di addestramento

Per assicurarsi che i sistemi di IA stiano imparando a ragionare analogicamente, e non semplicemente migliorando le loro abilità di mimetismo, abbiamo bisogno di strumenti che propongano deliberatamente la loro capacità di mappare la struttura su situazioni che non hanno mai incontrato prima. Ciò comporta la costruzione di problemi di test intenzionalmente dissimili da qualsiasi cosa possa apparire nei dati di addestramento – ciò che i ricercatori chiamano “compiti controfattuali”.

Ad esempio, invece di chiedere a un’IA di completare analogie standard come “cucciolo è a cane come cucciolo di gatto è a ____”, potremmo presentarle problemi che utilizzano concetti inventati o chiederle di mappare relazioni tra domini che non ha mai visto collegati. Può riconoscere che la relazione tra ingredienti e una ricetta è parallela alla relazione tra prove e un argomento legale, anche se non ha mai incontrato quel confronto specifico? Tali test rivelerebbero se il sistema comprende strutture sottostanti o semplicemente ricorda esempi simili.

Misurare ciò che conta

La buona notizia per gli sviluppatori di IA è che esiste una ricerca di decenni sulla scienza cognitiva che tratta specificamente di come gli esseri umani elaborano le analogie. Possono utilizzare questa ricerca per sviluppare benchmark robusti per il ragionamento analogico. Tuttavia, questi benchmark devono andare oltre il semplice conteggio delle risposte corrette ai test di analogia. Ciò che è realmente necessario sono metriche che catturino se i sistemi di IA possono identificare quali relazioni sono rilevanti da mappare, ignorando somiglianze superficiali e mantenendo la coerenza attraverso le loro mappe.

Ciò potrebbe coinvolgere sistemi di punteggio che premiano l’identificazione di relazioni di ordine superiore. Ad esempio, un’IA otterrebbe un punteggio più alto se potesse non solo riconoscere che sia gli atomi che i sistemi solari coinvolgono orbite, ma anche comprendere le relazioni causali che governano quelle orbite. Un’altra competenza da valutare potrebbe essere se l’IA può generare spontaneamente analogie appropriate per spiegare concetti nuovi, non solo completare problemi di analogia prestrutturati.

Sostegno attraverso la promozione

Ricerche recenti suggeriscono che la capacità dell’IA di pensare analogicamente dipende in larga misura da come le viene chiesto di farlo. La promozione analogica – guidare esplicitamente i modelli attraverso il processo di mapping strutturale – può suscitare un ragionamento più sofisticato rispetto al semplice presentare problemi freddi. Ciò potrebbe comportare prima di chiedere al sistema di identificare relazioni in un dominio di origine, quindi richiedere esplicitamente di mappare quelle relazioni su un dominio di destinazione.

Da oltre 13 anni, Gediminas Rickevicius è una forza di crescita nelle aziende leader del mercato IT, pubblicità e logistica in tutto il mondo. Ha cambiato l'approccio tradizionale allo sviluppo aziendale e alle vendite integrando i big data nella pianificazione strategica. Come Senior VP di Global Partnerships di Oxylabs, Gediminas continua la sua missione di potenziare le aziende con soluzioni all'avanguardia per la raccolta di dati web pubblici.