ठूंठ क्या जीपीटी मानव निर्णय लेने और अंतर्ज्ञान को दोहरा सकता है? - यूनाइट.एआई
हमसे जुडे

Artificial Intelligence

क्या जीपीटी मानव निर्णय लेने और अंतर्ज्ञान को दोहरा सकता है?

प्रकाशित

 on

छवि: मार्सेल बिंज़ (बाएं) और एरिक शुल्ज़। © जैविक साइबरनेटिक्स के लिए एमपीआई/ जोर्ग एबेंड्रोथ

हाल के वर्षों में, GPT-3 जैसे तंत्रिका नेटवर्क काफी उन्नत हुए हैं, जो ऐसे पाठ का उत्पादन कर रहे हैं जो मानव-लिखित सामग्री से लगभग अप्रभेद्य है। आश्चर्यजनक रूप से, GPT-3 गणित की समस्याओं और प्रोग्रामिंग कार्यों जैसी चुनौतियों से निपटने में भी कुशल है। यह उल्लेखनीय प्रगति इस प्रश्न की ओर ले जाती है: क्या GPT-3 में मानव जैसी संज्ञानात्मक क्षमताएं हैं?

इस दिलचस्प सवाल का जवाब देने के उद्देश्य से, मैक्स प्लैंक इंस्टीट्यूट फॉर बायोलॉजिकल साइबरनेटिक्स के शोधकर्ताओं ने जीपीटी-3 को मनोवैज्ञानिक परीक्षणों की एक श्रृंखला के अधीन किया, जिसमें सामान्य बुद्धि के विभिन्न पहलुओं का आकलन किया गया।

में शोध प्रकाशित हुआ था PNAS.

लिंडा समस्या को उजागर करना: संज्ञानात्मक मनोविज्ञान में एक झलक

मैक्स प्लैंक इंस्टीट्यूट के वैज्ञानिक मार्सेल बिंज़ और एरिक शुल्ज़ ने निर्णय लेने, सूचना खोज, कारण तर्क और इसके प्रारंभिक अंतर्ज्ञान पर सवाल उठाने की क्षमता में जीपीटी -3 की क्षमताओं की जांच की। उन्होंने प्रसिद्ध लिंडा समस्या सहित क्लासिक संज्ञानात्मक मनोविज्ञान परीक्षणों को नियोजित किया, जो लिंडा नामक एक काल्पनिक महिला का परिचय देता है, जो सामाजिक न्याय के बारे में भावुक है और परमाणु ऊर्जा का विरोध करती है। फिर प्रतिभागियों को यह तय करने के लिए कहा जाता है कि क्या लिंडा एक बैंक टेलर है, या वह एक बैंक टेलर है और साथ ही नारीवादी आंदोलन में भी सक्रिय है।

GPT-3 की प्रतिक्रिया आश्चर्यजनक रूप से मनुष्यों के समान थी, क्योंकि संभाव्य दृष्टिकोण से कम संभावना होने के बावजूद, उसने दूसरा विकल्प चुनने में वही सहज त्रुटि की। यह परिणाम बताता है कि GPT-3 की निर्णय लेने की प्रक्रिया मानव भाषा पर इसके प्रशिक्षण और संकेतों पर प्रतिक्रिया से प्रभावित हो सकती है।

सक्रिय अंतःक्रिया: मानव-जैसी बुद्धिमत्ता प्राप्त करने का मार्ग?

इस संभावना को खत्म करने के लिए कि GPT-3 केवल एक याद किए गए समाधान को पुन: प्रस्तुत कर रहा था, शोधकर्ताओं ने समान चुनौतियों के साथ नए कार्य तैयार किए। उनके निष्कर्षों से पता चला कि GPT-3 ने निर्णय लेने में लगभग मनुष्यों के बराबर प्रदर्शन किया, लेकिन विशिष्ट जानकारी और कारणात्मक तर्क की खोज में पिछड़ गया।

शोधकर्ताओं का मानना ​​है कि GPT-3 द्वारा ग्रंथों से जानकारी का निष्क्रिय ग्रहण इस विसंगति का प्राथमिक कारण हो सकता है, क्योंकि मानव अनुभूति की पूर्ण जटिलता को प्राप्त करने के लिए दुनिया के साथ सक्रिय बातचीत महत्वपूर्ण है। उनका कहना है कि जैसे-जैसे उपयोगकर्ता जीपीटी-3 जैसे मॉडलों के साथ तेजी से जुड़ रहे हैं, भविष्य के नेटवर्क इन इंटरैक्शन से सीख सकते हैं और उत्तरोत्तर अधिक मानव-जैसी बुद्धिमत्ता विकसित कर सकते हैं।

“इस घटना को इस तथ्य से समझाया जा सकता है कि GPT-3 पहले से ही इस सटीक कार्य से परिचित हो सकता है; यह जानना संभव हो सकता है कि लोग आम तौर पर इस प्रश्न का क्या उत्तर देते हैं,'' बिंज़ कहते हैं।

GPT-3 की संज्ञानात्मक क्षमताओं की जांच करने से तंत्रिका नेटवर्क की क्षमता और सीमाओं में मूल्यवान अंतर्दृष्टि मिलती है। जबकि GPT-3 ने प्रभावशाली मानव-जैसे निर्णय लेने के कौशल का प्रदर्शन किया है, यह अभी भी मानव अनुभूति के कुछ पहलुओं, जैसे सूचना खोज और कारण तर्क के साथ संघर्ष करता है। जैसे-जैसे एआई विकसित हो रहा है और उपयोगकर्ता की बातचीत से सीख रहा है, यह देखना दिलचस्प होगा कि क्या भविष्य के नेटवर्क वास्तविक मानव जैसी बुद्धिमत्ता प्राप्त कर सकते हैं।

एलेक्स मैकफ़ारलैंड एक एआई पत्रकार और लेखक हैं जो कृत्रिम बुद्धिमत्ता में नवीनतम विकास की खोज कर रहे हैं। उन्होंने दुनिया भर में कई एआई स्टार्टअप और प्रकाशनों के साथ सहयोग किया है।