Connect with us

рдПрд▓рдПрд▓рдПрдореНрд╕ рдЖрд╕рд╛рди рдкрд╣реЗрд▓рд┐рдпреЛрдВ рдкрд░ рдЕрдзрд┐рдХ рд╡рд┐рдЪрд╛рд░ рдХрд░рддреЗ рд╣реИрдВ рд▓реЗрдХрд┐рди рдХрдард┐рди рд▓реЛрдЧреЛрдВ рдкрд░ рд╣рд╛рд░ рдорд╛рдирддреЗ рд╣реИрдВ

рдХреГрддреНрд░рд┐рдо рдмреБрджреНрдзрд┐рдорддреНрддрд╛

рдПрд▓рдПрд▓рдПрдореНрд╕ рдЖрд╕рд╛рди рдкрд╣реЗрд▓рд┐рдпреЛрдВ рдкрд░ рдЕрдзрд┐рдХ рд╡рд┐рдЪрд╛рд░ рдХрд░рддреЗ рд╣реИрдВ рд▓реЗрдХрд┐рди рдХрдард┐рди рд▓реЛрдЧреЛрдВ рдкрд░ рд╣рд╛рд░ рдорд╛рдирддреЗ рд╣реИрдВ

mm

कृत्रिम बुद्धिमत्ता ने उल्लेखनीय प्रगति की है, जिसमें बड़े भाषा मॉडल (एलएलएम) और उनके उन्नत समकक्ष, बड़े तर्क मॉडल (एलआरएम), मशीनों द्वारा मानव-जैसे पाठ को संसाधित करने और उत्पन्न करने के तरीके को फिर से परिभाषित किया है। इन मॉडलों को निबंध लिखने, प्रश्नों के उत्तर देने और यहां तक कि गणितीय समस्याओं को हल करने की क्षमता है। हालांकि, उनकी प्रभावशाली क्षमताओं के बावजूद, इन मॉडलों में एक अजीब व्यवहार प्रदर्शित होता है: वे अक्सर सरल समस्याओं को जटिल बनाते हैं जबकि जटिल लोगों के साथ संघर्ष करते हैं। एप्पल शोधकर्ताओं द्वारा एक हालिया अध्ययन इस घटना में मूल्यवान अंतर्दृष्टि प्रदान करता है। यह लेख यह अन्वेषण करता है कि एलएलएम और एलआरएम इस तरह से व्यवहार क्यों करते हैं और इसका क्या अर्थ है कृत्रिम बुद्धिमत्ता के भविष्य के लिए।

एलएलएम और एलआरएम को समझना

एलएलएम और एलआरएम के व्यवहार को समझने के लिए, हम पहले यह स्पष्ट करने की आवश्यकता है कि ये मॉडल क्या हैं। एलएलएम, जैसे कि जीपीटी-3 या बीईआरटी, विशाल डेटासेट पर प्रशिक्षित होते हैं ताकि वे एक क्रम में अगले शब्द का अनुमान लगा सकें। इससे उन्हें पाठ उत्पन्न करने, अनुवाद करने और सारांश बनाने जैसे कार्यों में उत्कृष्टता प्राप्त होती है। हालांकि, वे स्वाभाविक रूप से तर्क के लिए डिज़ाइन नहीं किए गए हैं, जिसमें तार्किक निष्कर्ष या समस्या समाधान शामिल है।

एलआरएम एक नए वर्ग के मॉडल हैं जो इस अंतर को दूर करने के लिए डिज़ाइन किए गए हैं। वे चेन-ऑफ-थॉट (सीओटी) प्रॉम्प्टिंग जैसी तकनीकों को शामिल करते हैं, जहां मॉडल मध्यवर्ती तर्क चरण उत्पन्न करता है trước अंतिम उत्तर देने के। उदाहरण के लिए, जब एक गणितीय समस्या को हल करना हो, तो एलआरएम इसे चरणों में तोड़ सकता है, जैसे कि एक मानव करता है। यह दृष्टिकोण जटिल कार्यों पर प्रदर्शन में सुधार करता है लेकिन विभिन्न जटिलता की समस्याओं को संभालने में चुनौतियों का सामना करता है, जैसा कि एप्पल अध्ययन से पता चलता है।

अध्ययन

एप्पल अनुसंधान टीम ने एलएलएम और एलआरएम की तर्क क्षमताओं का मूल्यांकन करने के लिए एक अलग दृष्टिकोण अपनाया। उन्होंने पारंपरिक बेंचमार्क जैसे कि गणित या कोडिंग परीक्षणों पर निर्भर नहीं किया, जो डेटा दूषण (जहां मॉडल उत्तरों को याद रखते हैं) से प्रभावित हो सकते हैं। इसके बजाय, उन्होंने नियंत्रित पहेली वातावरण बनाए, जिनमें टावर ऑफ हानोई, चेकर जंपिंग, रिवर क्रॉसिंग, और ब्लॉक्स वर्ल्ड जैसी प्रसिद्ध पहेलियां शामिल थीं। उदाहरण के लिए, टावर ऑफ हानोई में डिस्क को पेग्स के बीच ले जाना शामिल है, जिसमें विशिष्ट नियमों का पालन किया जाता है, जिसकी जटिलता अधिक डिस्क जोड़ने पर बढ़ जाती है। पहेलियों की जटिलता को तर्कसंगत संरचना को बनाए रखते हुए व्यवस्थित रूप से समायोजित करके, शोधकर्ता यह देखते हैं कि मॉडल विभिन्न कठिनाई स्तरों पर कैसा प्रदर्शन करते हैं। यह तरीका उन्हें न केवल अंतिम उत्तरों का विश्लेषण करने की अनुमति देता है, बल्कि तर्क प्रक्रियाओं को भी देखने की अनुमति देता है, जो यह दिखाता है कि ये मॉडल “सोचते” हैं कि वे कैसे “सोचते हैं।”

अति विचार और हार मानने पर निष्कर्ष

अध्ययन ने समस्या जटिलता के आधार पर तीन विशिष्ट प्रदर्शन शासनों की पहचान की:

  • निम्न जटिलता स्तरों पर, मानक एलएलएम अक्सर एलआरएम की तुलना में बेहतर प्रदर्शन करते हैं क्योंकि एलआरएम अति विचार करते हैं, जो आवश्यक नहीं है, जबकि मानक एलएलएम अधिक कुशल होते हैं।
  • मध्यम जटिलता वाली समस्याओं के लिए, एलआरएम अपनी विस्तृत तर्क निशान उत्पन्न करने की क्षमता के कारण बेहतर प्रदर्शन दिखाते हैं जो उन्हें इन चुनौतियों का सामना करने में मदद करते हैं।
  • उच्च जटिलता वाली समस्याओं के लिए, एलएलएम और एलआरएम दोनों पूरी तरह से विफल हो जाते हैं; एलआरएम, विशेष रूप से, कठिनाई में वृद्धि के बावजूद सटीकता में एक कुल पतन का अनुभव करते हैं और अपने तर्क प्रयास को कम करते हैं।

सरल पहेलियों के लिए, जैसे कि एक या दो डिस्क के साथ टावर ऑफ हानोई, मानक एलएलएम सही उत्तर देने के लिए अधिक कुशल थे। एलआरएम, हालांकि, इन समस्याओं पर अति विचार करते थे, यहां तक कि जब समाधान सीधा था तब भी विस्तृत तर्क निशान उत्पन्न करते थे। यह सुझाव देता है कि एलआरएम अपने प्रशिक्षण डेटा में अतिरंजित व्याख्याओं की नकल कर सकते हैं, जो अकुशलता का कारण बन सकता है।

मध्यम जटिलता वाले दृश्यों में, एलआरएम ने बेहतर प्रदर्शन किया। उनकी विस्तृत तर्क चरणों का उत्पादन करने की क्षमता ने उन्हें कई तार्किक चरणों की आवश्यकता वाली समस्याओं का सामना करने में मदद की। इससे उन्हें मानक एलएलएम से बेहतर प्रदर्शन करने में मदद मिली, जो एक साथ तर्क को बनाए रखने में संघर्ष करते थे।

हालांकि, अत्यधिक जटिल पहेलियों के लिए, जैसे कि कई डिस्क के साथ टावर ऑफ हानोई, दोनों मॉडल पूरी तरह से विफल हो गए। आश्चर्यजनक रूप से, एलआरएम ने एक निश्चित बिंदु से परे जटिलता में वृद्धि के साथ अपने तर्क प्रयास को कम कर दिया,尽管 उन्हें पर्याप्त गणना संसाधन थे। यह “हार मानने” व्यवहार उनकी तर्क क्षमताओं को स्केल करने में एक मूलभूत सीमा को इंगित करता है।

यह क्यों होता है

सरल पहेलियों पर अति विचार करने की संभावना एलएलएम और एलआरएम के प्रशिक्षण से उत्पन्न होती है। इन मॉडलों को विशाल डेटासेट से सीखने की क्षमता है जिसमें संक्षिप्त और विस्तृत व्याख्याएं दोनों शामिल हैं। आसान समस्याओं के लिए, वे सीधे उत्तर देने के बजाय विस्तृत तर्क निशान उत्पन्न करने के लिए डिफ़ॉल्ट हो सकते हैं, जो उनके प्रशिक्षण डेटा में विस्तृत उदाहरणों की नकल करते हैं। यह व्यवहार आवश्यक रूप से एक दोष नहीं है, बल्कि उनके प्रशिक्षण का प्रतिबिंब है जो तर्क पर कुशलता को प्राथमिकता देता है।

जटिल पहेलियों पर विफलता एलएलएम और एलआरएम की तार्किक नियमों को सामान्य बनाने में असमर्थता को दर्शाती है। जैसे ही समस्या जटिलता बढ़ती है, उनकी पैटर्न मिलान पर निर्भरता टूट जाती है, जिससे असंगत तर्क और प्रदर्शन में गिरावट आती है। अध्ययन में पाया गया कि एलआरएम स्पष्ट अल्गोरिदम का उपयोग करने में विफल रहते हैं और विभिन्न पहेलियों में असंगत रूप से तर्क करते हैं। यह बताता है कि जबकि ये मॉडल तर्क की नकल कर सकते हैं, वे मानवों की तरह अंतर्निहित तर्क को वास्तव में नहीं समझते हैं।

विविध दृष्टिकोण

इस अध्ययन ने एआई समुदाय में चर्चा को जन्म दिया है। कुछ विशेषज्ञ तर्क देते हैं कि इन निष्कर्षों को गलत तरीके से व्याख्या किया जा सकता है। वे सुझाव देते हैं कि जबकि एलएलएम और एलआरएम मानवों की तरह तर्क नहीं कर सकते हैं, वे अभी भी निश्चित जटिलता सीमा के भीतर प्रभावी समस्या समाधान प्रदर्शित करते हैं। वे जोर देते हैं कि “तर्क” को मानव संज्ञान की नकल करने की आवश्यकता नहीं है ताकि यह मूल्यवान हो। इसी तरह, चर्चाएं हैकर न्यूज जैसे प्लेटफार्मों पर अध्ययन के कठोर दृष्टिकोण की प्रशंसा करती हैं लेकिन एआई तर्क में सुधार के लिए आगे के शोध की आवश्यकता पर प्रकाश डालती हैं। ये दृष्टिकोण एआई में तर्क के मूल्यांकन और इसके गठन पर चल रही बहस पर जोर देते हैं।

निहितार्थ और भविष्य के दिशानिर्देश

अध्ययन के निष्कर्ष एआई विकास के लिए महत्वपूर्ण निहितार्थ रखते हैं। जबकि एलआरएम मानव तर्क की नकल करने में प्रगति का प्रतिनिधित्व करते हैं, जटिल समस्याओं को संभालने और तर्क प्रयासों को स्केल करने में उनकी सीमाएं बताती हैं कि वर्तमान मॉडल सार्वजनिक तर्क प्राप्त करने से बहुत दूर हैं। यह तर्क प्रक्रियाओं की गुणवत्ता और अनुकूलन क्षमता पर ध्यान केंद्रित करने वाले नए मूल्यांकन तरीकों की आवश्यकता को रेखांकित करता है, न कि केवल अंतिम उत्तरों की सटीकता पर।

भविष्य के शोध को मॉडलों को तर्क चरणों को सटीक रूप से निष्पादित करने और समस्या जटिलता के आधार पर अपने तर्क प्रयासों को समायोजित करने में सुधार करने का लक्ष्य रखना चाहिए। वास्तविक दुनिया की तर्क कार्यों को प्रतिबिंबित करने वाले बेंचमार्क विकसित करना, जैसे कि चिकित्सा निदान या कानूनी तर्क, एआई क्षमताओं में अधिक अर्थपूर्ण अंतर्दृष्टि प्रदान कर सकता है। इसके अलावा, मॉडलों को पैटर्न मान्यता पर उनकी अधिक निर्भरता को संबोधित करना और तार्किक नियमों को सामान्य बनाने की उनकी क्षमता में सुधार करना एआई तर्क को आगे बढ़ाने के लिए महत्वपूर्ण होगा।

नीचे की पंक्ति

अध्ययन एलएलएम और एलआरएम की तर्क क्षमताओं का एक महत्वपूर्ण विश्लेषण प्रदान करता है। यह दिखाता है कि जबकि ये मॉडल सरल पहेलियों पर अति विचार करते हैं, वे अधिक जटिल लोगों के साथ संघर्ष करते हैं, उनकी ताकत और सीमाओं दोनों को उजागर करते हैं। हालांकि वे कertain स्थितियों में अच्छा प्रदर्शन करते हैं, जटिल समस्याओं को संभालने में उनकी अक्षमता मानव समझ और सिम्युलेटेड तर्क के बीच की खाई को रेखांकित करती है। अध्ययन जोर देता है कि एक एआई प्रणाली विकसित करने की आवश्यकता है जो विभिन्न जटिलता स्तरों पर अनुकूल रूप से तर्क कर सके, जिससे यह समस्याओं को संबोधित कर सके जो मानवों की तरह विभिन्न जटिलता के स्तर पर हों।

рдбреЙ. рддрд╣рд╕реАрди рдЬрд╝рд┐рдпрд╛ рдХреЛрдореНрд╕реИрдЯреНрд╕ рдпреВрдирд┐рд╡рд░реНрд╕рд┐рдЯреА рдЗрд╕реНрд▓рд╛рдорд╛рдмрд╛рдж рдореЗрдВ рдПрдХ рдЯреЗрдиреНрдпреЛрд░реНрдб рдПрд╕реЛрд╕рд┐рдПрдЯ рдкреНрд░реЛрдлреЗрд╕рд░ рд╣реИрдВ, рдЬреЛ рдСрд╕реНрдЯреНрд░рд┐рдпрд╛ рдХреА рд╡рд┐рдпрдирд╛ рдЯреЗрдХреНрдиреЛрд▓реЙрдЬреА рдпреВрдирд┐рд╡рд░реНрд╕рд┐рдЯреА рд╕реЗ рдПрдЖрдИ рдореЗрдВ рдкреАрдПрдЪрдбреА рд░рдЦрддреЗ рд╣реИрдВред рдЖрд░реНрдЯрд┐рдлрд┐рд╢рд┐рдпрд▓ рдЗрдВрдЯреЗрд▓рд┐рдЬреЗрдВрд╕, рдорд╢реАрди рд▓рд░реНрдирд┐рдВрдЧ, рдбреЗрдЯрд╛ рд╕рд╛рдЗрдВрд╕ рдФрд░ рдХрдВрдкреНрдпреВрдЯрд░ рд╡рд┐рдЬрди рдореЗрдВ рд╡рд┐рд╢реЗрд╖рдЬреНрдЮрддрд╛, рдЙрдиреНрд╣реЛрдВрдиреЗ рдкреНрд░рддрд┐рд╖реНрдард┐рдд рд╡реИрдЬреНрдЮрд╛рдирд┐рдХ рдкрддреНрд░рд┐рдХрд╛рдУрдВ рдореЗрдВ рдкреНрд░рдХрд╛рд╢рди рдХреЗ рд╕рд╛рде рдорд╣рддреНрд╡рдкреВрд░реНрдг рдпреЛрдЧрджрд╛рди рджрд┐рдпрд╛ рд╣реИред рдбреЙ. рддрд╣рд╕реАрди рдиреЗ рдкреНрд░рд┐рдВрд╕рд┐рдкрд▓ рдЗрдиреНрд╡реЗрд╕реНрдЯрд┐рдЧреЗрдЯрд░ рдХреЗ рд░реВрдк рдореЗрдВ рд╡рд┐рднрд┐рдиреНрди рдФрджреНрдпреЛрдЧрд┐рдХ рдкрд░рд┐рдпреЛрдЬрдирд╛рдУрдВ рдХрд╛ рдиреЗрддреГрддреНрд╡ рдХрд┐рдпрд╛ рд╣реИ рдФрд░ рдПрдХ рдПрдЖрдИ рд╕рд▓рд╛рд╣рдХрд╛рд░ рдХреЗ рд░реВрдк рдореЗрдВ рдХрд╛рд░реНрдп рдХрд┐рдпрд╛ рд╣реИред