رطم هل تستطيع GPT تكرار صنع القرار البشري والحدس؟ - اتحدوا
اتصل بنا للحصول على مزيد من المعلومات

الذكاء الاصطناعي

هل تستطيع GPT تكرار صنع القرار البشري والحدس؟

تم النشر

 on

الصورة: مارسيل بينز (يسار) وإريك شولتز. © MPI لعلم التحكم الآلي البيولوجي / يورغ أبيندروث

في السنوات الأخيرة ، تطورت الشبكات العصبية مثل GPT-3 بشكل ملحوظ ، مما أدى إلى إنتاج نص لا يمكن تمييزه تقريبًا عن المحتوى المكتوب بواسطة الإنسان. من المثير للدهشة أن GPT-3 بارع أيضًا في معالجة التحديات مثل مشاكل الرياضيات ومهام البرمجة. يقود هذا التقدم الملحوظ إلى السؤال: هل يمتلك GPT-3 قدرات معرفية شبيهة بالإنسان؟

بهدف الإجابة على هذا السؤال المثير للاهتمام ، أخضع الباحثون في معهد ماكس بلانك لعلم التحكم الآلي البيولوجي GPT-3 لسلسلة من الاختبارات النفسية التي قيمت جوانب مختلفة من الذكاء العام.

نشر البحث في PNAS.

حل مشكلة ليندا: لمحة عن علم النفس المعرفي

درس مارسيل بينز وإريك شولز ، العلماء في معهد ماكس بلانك ، قدرات GPT-3 في صنع القرار ، والبحث عن المعلومات ، والاستدلال السببي ، وقدرته على التشكيك في حدسه الأولي. لقد استخدموا اختبارات علم النفس المعرفي الكلاسيكية ، بما في ذلك مشكلة ليندا المعروفة ، والتي تقدم امرأة خيالية تدعى ليندا ، وهي شغوفة بالعدالة الاجتماعية وتعارض الطاقة النووية. يُطلب من المشاركين بعد ذلك أن يقرروا ما إذا كانت ليندا تعمل في البنك ، أم أنها صراف بنك وفي نفس الوقت ناشطة في الحركة النسوية.

كانت استجابة GPT-3 مشابهة بشكل لافت للنظر لاستجابة البشر ، حيث ارتكبت نفس الخطأ البديهي باختيار الخيار الثاني ، على الرغم من كونها أقل احتمالية من وجهة نظر احتمالية. تشير هذه النتيجة إلى أن عملية صنع القرار في GPT-3 قد تتأثر بتدريبها على اللغة البشرية واستجاباتها للمطالبات.

التفاعل النشط: الطريق إلى تحقيق ذكاء يشبه الإنسان؟

للتخلص من احتمال أن GPT-3 كان ببساطة يعيد إنتاج حل محفوظ ، صمم الباحثون مهامًا جديدة مع تحديات مماثلة. كشفت النتائج التي توصلوا إليها أن أداء GPT-3 كان على قدم المساواة تقريبًا مع أداء البشر في صنع القرار ، لكنه تأخر في البحث عن معلومات محددة والتفكير السببي.

يعتقد الباحثون أن تلقي GPT-3 السلبي للمعلومات من النصوص قد يكون السبب الرئيسي لهذا التناقض ، حيث أن التفاعل النشط مع العالم أمر بالغ الأهمية لتحقيق التعقيد الكامل للإدراك البشري. يقولون أنه مع تفاعل المستخدمين بشكل متزايد مع نماذج مثل GPT-3 ، يمكن للشبكات المستقبلية أن تتعلم من هذه التفاعلات وتطور بشكل تدريجي ذكاء يشبه الإنسان.

"يمكن تفسير هذه الظاهرة من خلال حقيقة أن GPT-3 قد يكون بالفعل على دراية بهذه المهمة الدقيقة ؛ قد يحدث أن تعرف ما يجيب عليه الناس عادةً على هذا السؤال "، كما يقول بينز.

يقدم التحقيق في القدرات المعرفية لـ GPT-3 رؤى قيمة حول إمكانات وقيود الشبكات العصبية. في حين أن GPT-3 قد عرضت مهارات اتخاذ قرارات مثيرة للإعجاب شبيهة بالإنسان ، إلا أنها لا تزال تكافح مع جوانب معينة من الإدراك البشري ، مثل البحث عن المعلومات والتفكير السببي. مع استمرار تطور الذكاء الاصطناعي والتعلم من تفاعلات المستخدم ، سيكون من الرائع ملاحظة ما إذا كانت الشبكات المستقبلية يمكنها تحقيق ذكاء حقيقي يشبه الإنسان.

أليكس ماكفارلاند صحفي وكاتب في مجال الذكاء الاصطناعي يستكشف أحدث التطورات في مجال الذكاء الاصطناعي. لقد تعاون مع العديد من الشركات الناشئة والمنشورات في مجال الذكاء الاصطناعي في جميع أنحاء العالم.