Connect with us

Kunstmatige intelligentie

Kan GPT Menselijke Besluitvorming en Intuïtie Repliceren?

mm

In de afgelopen jaren zijn neurale netwerken zoals GPT-3 aanzienlijk geavanceerd, waardoor tekst wordt gegenereerd die bijna niet van door mensen geschreven inhoud te onderscheiden is. Verbazingwekkend is dat GPT-3 ook vaardig is in het aanpakken van uitdagingen zoals wiskundige problemen en programmeertaken. Deze opmerkelijke vooruitgang leidt tot de vraag: beschikt GPT-3 over menselijke cognitieve vaardigheden?

Om deze intrigerende vraag te beantwoorden, hebben onderzoekers van het Max Planck Institute for Biological Cybernetics GPT-3 onderworpen aan een reeks psychologische tests die verschillende aspecten van algemene intelligentie beoordelen.

Het onderzoek werd gepubliceerd in PNAS.

Het ontrafelen van het Linda-probleem: een blik in de cognitieve psychologie

Marcel Binz en Eric Schulz, wetenschappers bij het Max Planck Institute, onderzochten de vaardigheden van GPT-3 op het gebied van besluitvorming, informatiezoeek, causale redenering en de capaciteit om zijn eerste intuïtie in twijfel te trekken. Zij maakten gebruik van klassieke cognitieve psychologietests, waaronder het bekende Linda-probleem, dat een fictieve vrouw introduceert genaamd Linda, die gepassioneerd is over sociale rechtvaardigheid en tegen kernenergie is. Deelnemers worden vervolgens gevraagd om te beslissen of Linda een bankbediende is, of dat ze een bankbediende is en tegelijkertijd actief is in de feministische beweging.

De reactie van GPT-3 was opvallend vergelijkbaar met die van mensen, aangezien het dezelfde intuïtieve fout maakte door de tweede optie te kiezen, ondanks dat deze minder waarschijnlijk is vanuit een probabilistisch oogpunt. Dit resultaat suggereert dat het besluitvormingsproces van GPT-3 mogelijk wordt beïnvloed door zijn training op menselijke taal en reacties op prompts.

Actieve interactie: de weg naar het bereiken van menselijke intelligentie?

Om de mogelijkheid uit te sluiten dat GPT-3 simpelweg een gememoriseerde oplossing reproduceerde, creëerden de onderzoekers nieuwe taken met soortgelijke uitdagingen. Hun bevindingen toonden aan dat GPT-3 bijna op gelijke hoogte met mensen presteerde bij besluitvorming, maar achterbleef bij het zoeken naar specifieke informatie en causale redenering.

De onderzoekers geloven dat de passieve ontvangst van informatie vanuit teksten door GPT-3 mogelijk de primaire oorzaak is van deze discrepantie, aangezien actieve interactie met de wereld essentieel is voor het bereiken van de volledige complexiteit van menselijke cognitie. Zij zeggen dat toekomstige netwerken, naarmate gebruikers meer interactie hebben met modellen zoals GPT-3, kunnen leren van deze interacties en progressief meer menselijke intelligentie kunnen ontwikkelen.

“Dit fenomeen kan worden verklaard door het feit dat GPT-3 mogelijk al bekend is met deze specifieke taak; het kan gebeuren dat het weet wat mensen typisch antwoorden op deze vraag,” zegt Binz.

Het onderzoeken van de cognitieve vaardigheden van GPT-3 biedt waardevolle inzichten in de potentie en beperkingen van neurale netwerken. Terwijl GPT-3 indrukwekkende menselijke besluitvormingsvaardigheden heeft getoond, worstelt het nog steeds met bepaalde aspecten van menselijke cognitie, zoals informatiezoeek en causale redenering. Naarmate AI blijft evolueren en leren van gebruikersinteracties, zal het fascinerend zijn om te zien of toekomstige netwerken echte menselijke intelligentie kunnen bereiken.

Alex McFarland is een AI-journalist en schrijver die de laatste ontwikkelingen op het gebied van kunstmatige intelligentie onderzoekt. Hij heeft samengewerkt met talloze AI-startups en publicaties wereldwijd.