stomp Kan GPT menslike besluitneming en intuïsie herhaal? - Verenig.AI
Verbinding met ons

Kunsmatige Intelligensie

Kan GPT menslike besluitneming en intuïsie herhaal?

Gepubliseer

 on

Beeld: Marcel Binz (links) en Eric Schulz. © MPI vir Biologiese Kubernetika/ Jörg Abendroth

In onlangse jare het neurale netwerke soos GPT-3 aansienlik gevorder, wat teks produseer wat amper nie onderskei kan word van mensgeskrewe inhoud nie. Verbasend genoeg is GPT-3 ook vaardig in die aanpak van uitdagings soos wiskundeprobleme en programmeringstake. Hierdie merkwaardige vordering lei tot die vraag: beskik GPT-3 oor mensagtige kognitiewe vermoëns?

Met die doel om hierdie intrige vraag te beantwoord, het navorsers by die Max Planck Instituut vir Biologiese Cybernetika GPT-3 onderwerp aan 'n reeks sielkundige toetse wat verskeie aspekte van algemene intelligensie beoordeel het.

Die navorsing is gepubliseer in PNAS.

Die Linda-probleem ontrafel: 'n blik op kognitiewe sielkunde

Marcel Binz en Eric Schulz, wetenskaplikes by die Max Planck Instituut, het GPT-3 se vermoëns in besluitneming, inligtingsoektog, oorsaaklike redenering en sy vermoë om sy aanvanklike intuïsie te bevraagteken, ondersoek. Hulle het klassieke kognitiewe sielkunde-toetse gebruik, insluitend die bekende Linda-probleem, wat 'n fiktiewe vrou genaamd Linda bekendstel, wat passievol is oor sosiale geregtigheid en kernkrag teenstaan. Deelnemers word dan gevra om te besluit of Linda 'n bankteller is, of is sy 'n bankteller en terselfdertyd aktief in die feministiese beweging.

GPT-3 se reaksie was opvallend soortgelyk aan dié van mense, aangesien dit dieselfde intuïtiewe fout gemaak het om die tweede opsie te kies, al was dit minder waarskynlik vanuit 'n waarskynlikheidsoogpunt. Hierdie uitkoms dui daarop dat GPT-3 se besluitnemingsproses beïnvloed kan word deur sy opleiding oor menslike taal en reaksies op versoeke.

Aktiewe interaksie: die pad na mensagtige intelligensie?

Om die moontlikheid uit te skakel dat GPT-3 bloot 'n gememoriseerde oplossing reproduseer, het die navorsers nuwe take met soortgelyke uitdagings gemaak. Hul bevindinge het aan die lig gebring dat GPT-3 byna op gelyke voet met mense presteer het in besluitneming, maar agtergebly het in die soeke na spesifieke inligting en oorsaaklike redenasies.

Die navorsers glo dat GPT-3 se passiewe ontvangs van inligting uit tekste die primêre oorsaak van hierdie teenstrydigheid kan wees, aangesien aktiewe interaksie met die wêreld deurslaggewend is vir die bereiking van die volle kompleksiteit van menslike kognisie. Hulle sê dat namate gebruikers toenemend betrokke raak by modelle soos GPT-3, toekomstige netwerke uit hierdie interaksies kan leer en geleidelik meer menslike intelligensie kan ontwikkel.

“Hierdie verskynsel kan verklaar word deur die feit dat GPT-3 dalk reeds met hierdie presiese taak vertroud is; dit kan gebeur om te weet wat mense tipies op hierdie vraag antwoord,” sê Binz.

Die ondersoek na GPT-3 se kognitiewe vermoëns bied waardevolle insigte in die potensiaal en beperkings van neurale netwerke. Terwyl GPT-3 indrukwekkende mensagtige besluitnemingsvaardighede ten toon gestel het, sukkel dit steeds met sekere aspekte van menslike kognisie, soos inligtingsoektog en oorsaaklike redenasie. Soos KI voortgaan om te ontwikkel en uit gebruikersinteraksies te leer, sal dit fassinerend wees om te sien of toekomstige netwerke ware menslike intelligensie kan bereik.

Alex McFarland is 'n KI-joernalis en skrywer wat die jongste ontwikkelings in kunsmatige intelligensie ondersoek. Hy het wêreldwyd met talle KI-opstarters en publikasies saamgewerk.