stub Kan GPT kopiere menneskelig beslutningstagning og intuition? - Unite.AI
Følg os

Kunstig intelligens

Kan GPT kopiere menneskelig beslutningstagning og intuition?

Udgivet

 on

Billede: Marcel Binz (til venstre) og Eric Schulz. © MPI for Biological Cybernetics/ Jörg Abendroth

I de senere år har neurale netværk som GPT-3 udviklet sig betydeligt og produceret tekst, der næsten ikke kan skelnes fra menneskeskreven indhold. Overraskende nok er GPT-3 også dygtig til at tackle udfordringer som matematiske problemer og programmeringsopgaver. Dette bemærkelsesværdige fremskridt fører til spørgsmålet: besidder GPT-3 menneskelignende kognitive evner?

For at besvare dette spændende spørgsmål udsatte forskere ved Max Planck Institute for Biological Cybernetics GPT-3 for en række psykologiske tests, der vurderede forskellige aspekter af generel intelligens.

Forskningen blev offentliggjort i PNAS.

Optrævling af Linda-problemet: Et indblik i kognitiv psykologi

Marcel Binz og Eric Schulz, videnskabsmænd ved Max Planck Institute, undersøgte GPT-3's evner inden for beslutningstagning, informationssøgning, kausal ræsonnement og dens evne til at stille spørgsmålstegn ved dens oprindelige intuition. De brugte klassiske kognitive psykologiske tests, herunder det velkendte Linda-problem, som introducerer en fiktiv kvinde ved navn Linda, som brænder for social retfærdighed og er imod atomkraft. Deltagerne bliver derefter bedt om at tage stilling til, om Linda er bankkasserer, eller om hun er bankkasserer og samtidig aktiv i den feministiske bevægelse.

GPT-3's svar var slående ens med menneskers, da det lavede den samme intuitive fejl ved at vælge den anden mulighed, på trods af at det var mindre sandsynligt fra et sandsynlighedssynspunkt. Dette resultat tyder på, at GPT-3's beslutningsproces kan blive påvirket af dens træning i menneskeligt sprog og reaktioner på prompter.

Aktiv interaktion: Vejen til at opnå menneskelignende intelligens?

For at eliminere muligheden for, at GPT-3 blot reproducerede en husket løsning, lavede forskerne nye opgaver med lignende udfordringer. Deres resultater afslørede, at GPT-3 præsterede næsten på niveau med mennesker i beslutningstagning, men haltede i søgningen efter specifik information og årsagsgrunde.

Forskerne mener, at GPT-3s passive modtagelse af information fra tekster kan være den primære årsag til denne uoverensstemmelse, da aktiv interaktion med verden er afgørende for at opnå den fulde kompleksitet af menneskelig kognition. De siger, at efterhånden som brugerne i stigende grad engagerer sig i modeller som GPT-3, kan fremtidige netværk lære af disse interaktioner og gradvist udvikle mere menneskelignende intelligens.

“Dette fænomen kan forklares med, at GPT-3 måske allerede er bekendt med denne præcise opgave; det kan ske at vide, hvad folk typisk svarer på dette spørgsmål,” siger Binz.

At undersøge GPT-3's kognitive evner giver værdifuld indsigt i potentialet og begrænsningerne af neurale netværk. Mens GPT-3 har vist imponerende menneskelignende beslutningsevner, kæmper den stadig med visse aspekter af menneskelig kognition, såsom informationssøgning og kausal begrundelse. Efterhånden som AI fortsætter med at udvikle sig og lære af brugerinteraktioner, vil det være fascinerende at observere, om fremtidige netværk kan opnå ægte menneskelignende intelligens.

Alex McFarland er en AI-journalist og forfatter, der udforsker den seneste udvikling inden for kunstig intelligens. Han har samarbejdet med adskillige AI-startups og publikationer verden over.