Kunstig intelligens
Kan GPT Replicere Menneskelig Beslutningstagning og Intuition?

I de seneste år er neurale netværk som GPT-3 avanceret betydeligt og producerer tekst, der er næsten umulig at skelne fra menneskeskrevet indhold. Forbløffende er GPT-3 også dygtig til at tackle udfordringer som matematikproblemer og programmeringsopgaver. Denne bemærkelsesværdige fremgang fører til spørgsmålet: besidder GPT-3 menneskelignende kognitive evner?
For at besvare dette interessante spørgsmål udsatte forskere ved Max Planck Institute for Biological Cybernetics GPT-3 for en række psykologiske tests, der vurderede forskellige aspekter af almen intelligens.
Forskningen blev offentliggjort i PNAS.
At afklæde Linda-problemet: Et glimt ind i kognitiv psykologi
Marcel Binz og Eric Schulz, videnskabsmænd ved Max Planck Institute, undersøgte GPT-3’s evner i beslutningstagning, informations søgning, årsagsrelatering og dens evne til at stille spørgsmål ved dens første intuition. De anvendte klassiske kognitive psykologiske tests, herunder det velkendte Linda-problem, der introducerer en fiktiv kvinde ved navn Linda, der er passioneret om social retfærdighed og modsætter sig atomkraft. Deltagerne blev herefter bedt om at afgøre, om Linda er en banktjener, eller om hun er en banktjener og samtidig aktiv i feministbevægelsen.
GPT-3’s svar var slående lig humans, da den begik den samme intuitive fejl ved at vælge den anden mulighed, på trods af at det var mindre sandsynligt fra et probabilistisk synspunkt. Dette resultat antyder, at GPT-3’s beslutningstagning kan være påvirket af dens træning på menneskesprog og svar på prompts.
Aktiv interaktion: Vejen til at opnå menneskelignende intelligens?
For at udelukke muligheden for, at GPT-3 blot reproducerede en memoriseret løsning, designede forskerne nye opgaver med lignende udfordringer. Deres resultater viste, at GPT-3 opførte sig næsten på niveau med mennesker i beslutningstagning, men lå efter i informations søgning og årsagsrelatering.
Forskerne mener, at GPT-3’s passive modtagelse af information fra tekster kan være den primære årsag til denne diskrepans, da aktiv interaktion med verden er afgørende for at opnå den fulde kompleksitet af menneskelig kognition. De siger, at når brugerne i stigende grad interagerer med modeller som GPT-3, kan fremtidige netværk lære af disse interaktioner og gradvist udvikle mere menneskelignende intelligens.
“Dette fænomen kan forklares af, at GPT-3 allerede er bekendt med denne præcise opgave; det kan ske, at det ved, hvad mennesker typisk svarer på dette spørgsmål,” siger Binz.
At undersøge GPT-3’s kognitive evner giver værdifulde indsigt i de potentielle og begrænsninger af neurale netværk. Mens GPT-3 har vist imponerende menneskelignende beslutningstagningsevner, kæmper det stadig med visse aspekter af menneskelig kognition, såsom informations søgning og årsagsrelatering. Da kunstig intelligens fortsætter med at udvikle sig og lære af brugerinteraktioner, vil det være fascinerende at observere, om fremtidige netværk kan opnå ægte menneskelignende intelligens.












