Connect with us

Kunstig intelligens

Kan GPT Repeterer Menneskelig Beslutningstaking og Intuisjon?

mm

I de senere år har neurale nettverk som GPT-3 gjort betydelige fremskritt, og produsert tekst som er nesten umulig å skille fra menneskeskrevet innhold. Overraskende er GPT-3 også dyktig i å takle utfordringer som matematikkproblemer og programmeringsoppgaver. Dette bemerkelsesverdige fremsteget fører til spørsmålet: besitter GPT-3 menneskelignende kognitive evner?

For å besvare dette intrigerende spørsmålet, har forskere ved Max Planck Institute for Biological Cybernetics underlagt GPT-3 en rekke psykologiske tester som vurderer ulike aspekter av generell intelligens.

Forskningen ble publisert i PNAS.

Avdekning av Linda-problemet: Et glimt inn i kognitiv psykologi

Marcel Binz og Eric Schulz, forskere ved Max Planck Institute, undersøkte GPT-3s evner i beslutningstaking, informasjonssøk, årsaksrelatert resonnement og dens evne til å ifrågasette sin opprinnelige intuisjon. De brukte klassiske kognitive psykologiske tester, inkludert det velkjente Linda-problemet, som introduserer en fiktiv kvinne ved navn Linda, som er lidenskapelig opptatt av sosial rettferdighet og motsetter seg kjernekraft. Deltakerne blir deretter bedt om å bestemme om Linda er en banktjener, eller om hun er en banktjener og samtidig aktiv i feministbevegelsen.

GPT-3s respons var slående lik den til mennesker, da den gjorde den samme intuitive feilen ved å velge det andre alternativet, til tross for at det er mindre sannsynlig fra et probabilistisk synspunkt. Dette resultatet tyder på at GPT-3s beslutningstaking kan være påvirket av dens trening på menneskespråk og responser på forespørsler.

Aktiv interaksjon: Veien til å oppnå menneskelignende intelligens?

For å eliminere muligheten for at GPT-3 bare reproducerer en memorisert løsning, konstruerte forskerne nye oppgaver med lignende utfordringer. Deres funn viste at GPT-3 utførte nesten like godt som mennesker i beslutningstaking, men hadde vanskeligheter med å søke etter spesifik informasjon og årsaksrelatert resonnement.

Forskerne mener at GPT-3s passive mottak av informasjon fra tekst kan være den primære årsaken til denne diskrepansen, da aktiv interaksjon med verden er avgjørende for å oppnå full kompleksitet i menneskelig kognisjon. De sier at ettersom brukerne stadig engasjerer seg med modeller som GPT-3, kan fremtidige nettverk lære av disse interaksjonene og gradvis utvikle mer menneskelignende intelligens.

“Dette fenomenet kan forklares av det faktum at GPT-3 allerede kan være kjent med denne nøyaktige oppgaven; det kan skje at det vet hva mennesker vanligvis svarer på dette spørsmålet,” sier Binz.

Undersøkelse av GPT-3s kognitive evner gir verdifulle innsikter i potensialet og begrensningene til neurale nettverk. Mens GPT-3 har vist imponerende menneskelignende beslutningstaking, har det fortsatt vanskeligheter med visse aspekter av menneskelig kognisjon, som informasjonssøk og årsaksrelatert resonnement. Ettersom AI fortsetter å utvikle seg og lære av brukerinteraksjoner, vil det være fascinerende å observere om fremtidige nettverk kan oppnå ekte menneskelignende intelligens.

Alex McFarland er en AI-journalist og forfatter som utforsker de nyeste utviklingene innen kunstig intelligens. Han har samarbeidet med tallrike AI-startups og publikasjoner verden over.