Connect with us

Intelligenza artificiale

Il GPT può replicare la presa di decisioni e l’intuizione umana?

mm

Negli ultimi anni, le reti neurali come GPT-3 hanno fatto progressi significativi, producendo testi che sono quasi indistinguibili da contenuti scritti da esseri umani. Sorprendentemente, GPT-3 è anche proficiente nel risolvere sfide come problemi matematici e compiti di programmazione. Questo progresso notevole porta alla domanda: GPT-3 possiede abilità cognitive simili a quelle umane?

Con l’obiettivo di rispondere a questa intrigante domanda, i ricercatori dell’Istituto Max Planck per la cibernetica biologica hanno sottoposto GPT-3 a una serie di test psicologici che valutavano vari aspetti dell’intelligenza generale.

La ricerca è stata pubblicata in PNAS.

Scoprire il problema di Linda: uno sguardo alla psicologia cognitiva

Marcel Binz e Eric Schulz, scienziati dell’Istituto Max Planck, hanno esaminato le capacità di GPT-3 nella presa di decisioni, nella ricerca di informazioni, nel ragionamento causale e nella sua capacità di mettere in discussione la sua intuizione iniziale. Hanno utilizzato test classici di psicologia cognitiva, tra cui il noto problema di Linda, che introduce una donna di nome Linda, appassionata di giustizia sociale e contraria al potere nucleare. I partecipanti sono quindi invitati a decidere se Linda è una cassiera di banca o se è una cassiera di banca e allo stesso tempo attiva nel movimento femminista.

La risposta di GPT-3 è stata sorprendentemente simile a quella degli esseri umani, poiché ha commesso lo stesso errore intuitivo di scegliere la seconda opzione, nonostante sia meno probabile da un punto di vista probabilistico. Questo risultato suggerisce che il processo decisionale di GPT-3 potrebbe essere influenzato dal suo addestramento sul linguaggio umano e dalle risposte ai prompt.

Interazione attiva: il percorso per raggiungere un’intelligenza simile a quella umana?

Per eliminare la possibilità che GPT-3 stesse semplicemente riproducendo una soluzione memorizzata, i ricercatori hanno creato nuovi compiti con sfide simili. I loro risultati hanno rivelato che GPT-3 ha eseguito quasi alla pari con gli esseri umani nella presa di decisioni, ma è rimasto indietro nella ricerca di informazioni specifiche e nel ragionamento causale.

I ricercatori ritengono che la ricezione passiva di informazioni da testi da parte di GPT-3 potrebbe essere la principale causa di questa discrepanza, poiché l’interazione attiva con il mondo è cruciale per raggiungere la piena complessità della cognizione umana. Affermano che man mano che gli utenti interagiscono sempre più con modelli come GPT-3, le future reti potrebbero imparare da queste interazioni e sviluppare progressivamente un’intelligenza più simile a quella umana.

“Questo fenomeno potrebbe essere spiegato dal fatto che GPT-3 potrebbe già essere familiare con questo compito specifico; potrebbe accadere che sappia cosa rispondono le persone a questa domanda”, afferma Binz.

Studiare le capacità cognitive di GPT-3 offre preziosi spunti di riflessione sulle potenzialità e i limiti delle reti neurali. Se GPT-3 ha dimostrato impressionanti capacità di presa di decisioni simili a quelle umane, fatica ancora con alcuni aspetti della cognizione umana, come la ricerca di informazioni e il ragionamento causale. Man mano che l’IA continua a evolversi e a imparare dalle interazioni con gli utenti, sarà affascinante osservare se le future reti potranno raggiungere una vera intelligenza simile a quella umana.

Alex McFarland è un giornalista e scrittore di intelligenza artificiale che esplora gli ultimi sviluppi nel campo dell'intelligenza artificiale. Ha collaborato con numerose startup di intelligenza artificiale e pubblicazioni in tutto il mondo.