Kunstig intelligens
Kan GPT Repeterer Menneskelig Beslutningstaking og Intuisjon?

I de senere år har neurale nettverk som GPT-3 gjort betydelige fremskritt, og produsert tekst som er nesten umulig å skille fra menneskeskrevet innhold. Overraskende er GPT-3 også dyktig i å takle utfordringer som matematikkproblemer og programmeringsoppgaver. Dette bemerkelsesverdige fremsteget fører til spørsmålet: besitter GPT-3 menneskelignende kognitive evner?
For å besvare dette intrigerende spørsmålet, har forskere ved Max Planck Institute for Biological Cybernetics underlagt GPT-3 en rekke psykologiske tester som vurderer ulike aspekter av generell intelligens.
Forskningen ble publisert i PNAS.
Avdekning av Linda-problemet: Et glimt inn i kognitiv psykologi
Marcel Binz og Eric Schulz, forskere ved Max Planck Institute, undersøkte GPT-3s evner i beslutningstaking, informasjonssøk, årsaksrelatert resonnement og dens evne til å ifrågasette sin opprinnelige intuisjon. De brukte klassiske kognitive psykologiske tester, inkludert det velkjente Linda-problemet, som introduserer en fiktiv kvinne ved navn Linda, som er lidenskapelig opptatt av sosial rettferdighet og motsetter seg kjernekraft. Deltakerne blir deretter bedt om å bestemme om Linda er en banktjener, eller om hun er en banktjener og samtidig aktiv i feministbevegelsen.
GPT-3s respons var slående lik den til mennesker, da den gjorde den samme intuitive feilen ved å velge det andre alternativet, til tross for at det er mindre sannsynlig fra et probabilistisk synspunkt. Dette resultatet tyder på at GPT-3s beslutningstaking kan være påvirket av dens trening på menneskespråk og responser på forespørsler.
Aktiv interaksjon: Veien til å oppnå menneskelignende intelligens?
For å eliminere muligheten for at GPT-3 bare reproducerer en memorisert løsning, konstruerte forskerne nye oppgaver med lignende utfordringer. Deres funn viste at GPT-3 utførte nesten like godt som mennesker i beslutningstaking, men hadde vanskeligheter med å søke etter spesifik informasjon og årsaksrelatert resonnement.
Forskerne mener at GPT-3s passive mottak av informasjon fra tekst kan være den primære årsaken til denne diskrepansen, da aktiv interaksjon med verden er avgjørende for å oppnå full kompleksitet i menneskelig kognisjon. De sier at ettersom brukerne stadig engasjerer seg med modeller som GPT-3, kan fremtidige nettverk lære av disse interaksjonene og gradvis utvikle mer menneskelignende intelligens.
“Dette fenomenet kan forklares av det faktum at GPT-3 allerede kan være kjent med denne nøyaktige oppgaven; det kan skje at det vet hva mennesker vanligvis svarer på dette spørsmålet,” sier Binz.
Undersøkelse av GPT-3s kognitive evner gir verdifulle innsikter i potensialet og begrensningene til neurale nettverk. Mens GPT-3 har vist imponerende menneskelignende beslutningstaking, har det fortsatt vanskeligheter med visse aspekter av menneskelig kognisjon, som informasjonssøk og årsaksrelatert resonnement. Ettersom AI fortsetter å utvikle seg og lære av brukerinteraksjoner, vil det være fascinerende å observere om fremtidige nettverk kan oppnå ekte menneskelignende intelligens.












