csonk A GPT lemásolja az emberi döntéshozatalt és az intuíciót? - Egyesüljetek.AI
Kapcsolatba velünk

Mesterséges Intelligencia

A GPT lemásolja az emberi döntéshozatalt és az intuíciót?

Közzététel:

 on

Kép: Marcel Binz (balra) és Eric Schulz. © MPI for Biological Cybernetics/ Jörg Abendroth

Az elmúlt években az olyan neurális hálózatok, mint a GPT-3, jelentős fejlődésen mentek keresztül, és olyan szöveget hoznak létre, amely szinte megkülönböztethetetlen az ember által írt tartalomtól. Meglepő módon a GPT-3 olyan kihívások kezelésében is jártas, mint a matematikai problémák és a programozási feladatok. Ez a figyelemre méltó fejlődés felveti a kérdést: rendelkezik-e a GPT-3 emberhez hasonló kognitív képességekkel?

Ennek az érdekes kérdésnek a megválaszolása érdekében a Max Planck Biológiai Kibernetikai Intézet kutatói a GPT-3-at pszichológiai tesztek sorozatának vetették alá, amelyek az általános intelligencia különböző aspektusait értékelték.

A kutatást a PNAS.

A Linda-probléma feltárása: Bepillantás a kognitív pszichológiába

Marcel Binz és Eric Schulz, a Max Planck Intézet tudósai megvizsgálták a GPT-3 képességeit a döntéshozatalban, az információkeresésben, az oksági érvelésben, valamint azt, hogy mennyire képes megkérdőjelezni kezdeti intuícióját. Klasszikus kognitív pszichológiai teszteket alkalmaztak, köztük a jól ismert Linda-problémát, amely egy Linda nevű kitalált nőt mutat be, aki szenvedélyesen rajong a társadalmi igazságosságért és ellenzi az atomenergiát. A résztvevőket ezután arra kérik, hogy döntsék el, Linda bankpénztáros, vagy bankpénztáros, és egyben aktív a feminista mozgalomban.

A GPT-3 válasza feltűnően hasonlított az emberekéhez, mivel ugyanazt az intuitív hibát követte el, amikor a második lehetőséget választotta, annak ellenére, hogy valószínűségi szempontból kevésbé valószínű. Ez az eredmény azt sugallja, hogy a GPT-3 döntéshozatali folyamatát befolyásolhatja az emberi nyelv oktatása és a felszólításokra adott válaszok.

Aktív interakció: Út az emberszerű intelligencia eléréséhez?

Annak elkerülésére, hogy a GPT-3 egyszerűen egy memorizált megoldást reprodukáljon, a kutatók új feladatokat készítettek hasonló kihívásokkal. Eredményeik felfedték, hogy a GPT-3 szinte egyenrangú az emberekkel a döntéshozatalban, de lemaradt a konkrét információk keresésében és az ok-okozati érvelésben.

A kutatók úgy vélik, hogy a GPT-3 szövegekből származó információ passzív befogadása lehet ennek az eltérésnek az elsődleges oka, mivel a világgal való aktív interakció kulcsfontosságú az emberi megismerés teljes komplexitásának eléréséhez. Azt mondják, hogy ahogy a felhasználók egyre gyakrabban veszik igénybe az olyan modelleket, mint a GPT-3, a jövőbeli hálózatok tanulhatnak ezekből az interakciókból, és fokozatosan emberszerűbb intelligenciát fejleszthetnek ki.

„Ez a jelenség azzal magyarázható, hogy a GPT-3 már ismeri ezt a pontos feladatot; előfordulhat, hogy tudni fogja, hogy az emberek általában mit válaszolnak erre a kérdésre” – mondja Binz.

A GPT-3 kognitív képességeinek vizsgálata értékes betekintést nyújt a neurális hálózatok lehetőségeire és korlátaiba. Míg a GPT-3 lenyűgöző emberszerű döntéshozatali készségeket mutatott be, még mindig küzd az emberi megismerés bizonyos aspektusaival, mint például az információkeresés és az ok-okozati érvelés. Ahogy a mesterséges intelligencia folyamatosan fejlődik, és tanul a felhasználói interakciókból, lenyűgöző lesz megfigyelni, hogy a jövőbeli hálózatok képesek-e valódi emberszerű intelligenciát elérni.

Alex McFarland mesterséges intelligencia újságíró és író, aki a mesterséges intelligencia legújabb fejleményeit vizsgálja. Számos AI startup vállalkozással és publikációval működött együtt világszerte.