Connect with us

Yapay Zekâ

GPT İnsanların Karar Verme ve Sezgisini Taklit Edebilir Mi?

mm

Son yıllarda GPT-3 gibi sinir ağları önemli ölçüde ilerlemiş ve neredeyse insan tarafından yazılmış içeriğinden ayırt edilemeyen metinler üretmiştir. Şaşırtıcı bir şekilde, GPT-3 aynı zamanda matematik problemleri ve programlama görevleri gibi zorluklarla başa çıkmada yeteneklidir. Bu dikkat çekici ilerleme, GPT-3’ün insan benzeri bilişsel yeteneklere sahip olup olmadığı sorusunu gündeme getiriyor.

Bu ilginç soruyu cevaplamak amacıyla, Max Planck Biyolojik Sibernetik Enstitüsü’ndeki araştırmacılar GPT-3’ü genel zekanın çeşitli yönlerini değerlendiren bir dizi psikolojik teste tabi tutmuşlardır.

Araştırma PNAS sitesinde yayınlanmıştır.

Linda Problemini Çözme: Bilişsel Psikolojiye Bir Bakış

Max Planck Enstitüsü’ndeki bilim adamları Marcel Binz ve Eric Schulz, GPT-3’ün karar verme, bilgi arama, nedensel akıl yürütme ve ilk sezgisini sorgulama yeteneklerini incelediler. Klasik bilişsel psikoloji testlerini kullandılar, bunlar arasında ünlü Linda problemi de yer alıyor. Bu problem, sosyal adaletten yana olan ve nükleer enerjiye karşı çıkan kurgusal bir kadın olan Linda’yı tanıtıyor. Katılımcılardan sonra Linda’nın bir bankada memur olup olmadığını veya aynı zamanda feminist hareketin içinde olup olmadığını belirlemeleri isteniyor.

GPT-3’ün yanıtı, insanlarınkiyle şaşırtıcı bir şekilde benzerdi, çünkü olasılık açısından daha az olası olan ikinci seçeneği seçerek aynı sezgisel hatayı yaptı. Bu sonuç, GPT-3’ün karar verme sürecinin, insan dili ve.promptlara verilen yanıtların eğitimine bağlı olabileceğini gösteriyor.

Etkin Etkileşim: İnsan Benzeri Zeka Elde Etmenin Yolu Mu?

GPT-3’ün sadece bir çözümü ezberden üretip üretmediğini ortadan kaldırmak için araştırmacılar benzer zorluklara sahip yeni görevler tasarladılar. Bulgular, GPT-3’ün karar verme konusunda insanlarla neredeyse aynı performans gösterdiğini, ancak bilgi arama ve nedensel akıl yürütmede geride kaldığını gösterdi.

Araştırmacılara göre, GPT-3’ün metinlerden pasif olarak bilgi alması, bu uyumsuzluğun temel nedeni olabilir, çünkü insan bilişinin tam karmaşıklığını elde etmek için dünya ile aktif etkileşim önemlidir. Gelecekteki ağların, kullanıcıların GPT-3 gibi modellerle artan etkileşimi sayesinde öğrenerek ve giderek daha insan benzeri zeka geliştirebileceğini söylüyorlar.

“Bu olgu, GPT-3’ün zaten bu precisa görevi tanıdığından ve insanların bu soruya genellikle nasıl cevap verdiğini bildiğinden dolayı açıklanabilir” diyor Binz.

GPT-3’ün bilişsel yeteneklerini araştırmak, sinir ağlarının potansiyeli ve sınırlamaları hakkında değerli içgörüler sunuyor. GPT-3, etkileyici insan benzeri karar verme becerileri sergilemiş olsa da, hala bilgi arama ve nedensel akıl yürütme gibi insan bilişinin belirli yönleriyle mücadele ediyor. Yapay zeka devam ettikçe ve kullanıcı etkileşimlerinden öğrenmeye devam ettikçe, gelecek ağların gerçek insan benzeri zeka elde edip edemeyeceğini gözlemlemek ilginç olacaktır.

Alex McFarland yapay zeka muhabiri ve yazarıdır ve yapay zekadaki son gelişmeleri araştırıyor. Birçok yapay zeka başlangıç şirketi ve dünya çapındaki yayınlarda işbirliği yaptı.