Connect with us

рдПрд▓рдПрд▓рдПрдо рдХреИрд╕реЗ рд╣рдореЗрдВ рдмреБрджреНрдзрд┐рдорддреНрддрд╛ рдХреЛ рдлрд┐рд░ рд╕реЗ рдкрд░рд┐рднрд╛рд╖рд┐рдд рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдордЬрдмреВрд░ рдХрд░ рд░рд╣реЗ рд╣реИрдВ

рдХреГрддреНрд░рд┐рдо рдмреБрджреНрдзрд┐рдорддреНрддрд╛

рдПрд▓рдПрд▓рдПрдо рдХреИрд╕реЗ рд╣рдореЗрдВ рдмреБрджреНрдзрд┐рдорддреНрддрд╛ рдХреЛ рдлрд┐рд░ рд╕реЗ рдкрд░рд┐рднрд╛рд╖рд┐рдд рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдордЬрдмреВрд░ рдХрд░ рд░рд╣реЗ рд╣реИрдВ

mm

एक पुरानी कहावत है: यदि यह एक बतख की तरह दिखता है, एक बतख की तरह तैरता है, और एक बतख की तरह क्वैक करता है, तो यह शायद एक बतख है। यह सरल तर्क का तरीका, अक्सर इंडियाना के कवि जेम्स व्हिटकॉम्ब राइली से जुड़ा हुआ है, ने दशकों से कृत्रिम बुद्धिमत्ता के बारे में हमारी सोच को आकार दिया है। यह विचार कि व्यवहार बुद्धिमत्ता की पहचान करने के लिए पर्याप्त है, ने एलन ट्यूरिंग के प्रसिद्ध “नकल के खेल” को प्रेरित किया, जिसे अब ट्यूरिंग टेस्ट कहा जाता है।

ट्यूरिंग ने सुझाव दिया कि यदि एक मानव यह बताने में असमर्थ है कि वे एक मशीन या एक अन्य मानव के साथ बातचीत कर रहे हैं, तो मशीन को बुद्धिमान कहा जा सकता है। दोनों बतख परीक्षण और ट्यूरिंग परीक्षण सुझाव देते हैं कि जो मायने रखता है वह यह नहीं है कि एक प्रणाली के अंदर क्या है, बल्कि यह कैसे व्यवहार करती है। दशकों से, यह परीक्षण एआई में प्रगति का मार्गदर्शन करता है। लेकिन, बड़े भाषा मॉडल (एलएलएम) के आगमन के साथ, स्थिति बदल गई है। ये प्रणालियां सम्मोहक पाठ लिख सकती हैं, बातचीत कर सकती हैं, और कार्यों को ऐसे तरीके से हल कर सकती हैं जो आश्चर्यजनक रूप से मानवीय लगते हैं। प्रश्न अब यह नहीं है कि मशीनें मानव वार्ता की नकल कर सकती हैं या नहीं, बल्कि यह कि क्या यह नकल वास्तविक बुद्धिमत्ता है। यदि एक प्रणाली हमारे जैसे लिख सकती है, हमारे जैसे तर्क कर सकती है, और यहां तक कि हमारे जैसे रचना कर सकती है, तो क्या हमें इसे बुद्धिमान कहा जाना चाहिए? या क्या व्यवहार अकेले बुद्धिमत्ता को मापने के लिए पर्याप्त नहीं है?

मशीन बुद्धिमत्ता का विकास

बड़े भाषा मॉडल ने हमें एआई के बारे में सोचने के तरीके को बदल दिया है। ये प्रणालियां, जो एक बार बुनियादी पाठ प्रतिक्रियाओं को उत्पन्न करने तक सीमित थीं, अब तर्क संबंधी समस्याओं को हल कर सकती हैं, कंप्यूटर कोड लिख सकती हैं, कहानियां तैयार कर सकती हैं, और यहां तक कि रचनात्मक कार्यों जैसे स्क्रीनराइटिंग में सहायता कर सकती हैं। इस प्रगति में एक महत्वपूर्ण विकास उनकी क्षमता है जटिल समस्याओं को चरण-दर-चरण तर्क के माध्यम से हल करने की, जिसे चेन-ऑफ-थॉट तर्क कहा जाता है। एक समस्या को छोटे भागों में तोड़कर, एक एलएलएम जटिल गणितीय समस्याओं या तार्किक पहेलियों को हल कर सकता है जो मानव समस्या समाधान के समान दिखता है। इस क्षमता ने उन्हें उन्नत बेंचमार्क जैसे मैथ या जीएसएम8के पर मानव प्रदर्शन को मैच या حتى पार करने में सक्षम बनाया है। आज, एलएलएम भी मल्टीमॉडल क्षमताएं रखते हैं। वे छवियों के साथ काम कर सकते हैं, चिकित्सा स्कैन की व्याख्या कर सकते हैं, दृश्य पहेलियों को समझा सकते हैं, और जटिल आरेखों का वर्णन कर सकते हैं। इन प्रगति के साथ, प्रश्न अब यह नहीं है कि एलएलएम मानव व्यवहार की नकल कर सकते हैं या नहीं, बल्कि यह कि क्या यह व्यवहार वास्तविक समझ को प्रतिबिंबित करता है।

मानव-जैसी सोच के निशान

एलएलएम की यह सफलता बुद्धिमत्ता को समझने के तरीके को फिर से परिभाषित कर रही है। ध्यान ट्यूरिंग परीक्षण द्वारा सुझाए गए मानव व्यवहार के साथ एआई के व्यवहार को संरेखित करने से हटकर एलएलएम द्वारा मानव सोच की नकल कितनी करीब से करते हैं, इसे खोजने की ओर स्थानांतरित हो रहा है (अर्थात वास्तविक मानव-जैसी सोच)। उदाहरण के लिए, एक हालिया अध्ययन में, शोधकर्ताओं ने एआई मॉडल के आंतरिक कार्यों की तुलना मानव मस्तिष्क गतिविधि से की। अध्ययन में पाया गया कि 70 अरब से अधिक पैरामीटर वाले एलएलएम न केवल मानव-स्तर की सटीकता हासिल करते हैं, बल्कि आंतरिक रूप से जानकारी को मानव मस्तिष्क पैटर्न के साथ मेल खाते तरीके से व्यवस्थित करते हैं।

जब मानव और एआई मॉडल दोनों ने पैटर्न मान्यता कार्यों पर काम किया, तो मस्तिष्क स्कैन ने मानव प्रतिभागियों और एआई मॉडल में संगत गणना पैटर्न में समान गतिविधि दिखाई। मॉडल ने अपनी आंतरिक परतों में अमूर्त अवधारणाओं को मानव मस्तिष्क तरंग गतिविधि के साथ सीधे मेल खाते तरीके से क्लस्टर किया। यह सुझाव देता है कि सफल तर्क के लिए समान संगठनात्मक संरचनाओं की आवश्यकता हो सकती है, चाहे वह जैविक या कृत्रिम प्रणालियों में हों।

हालांकि, शोधकर्ता इस काम की सीमाओं का ध्यान रखने के लिए सावधान हैं। अध्ययन में मानव प्रतिभागियों की एक छोटी संख्या शामिल थी, और मानव और मशीन ने कार्यों को अलग तरह से подходा। मानव दृश्य पैटर्न के साथ काम करते थे जबकि एआई मॉडल पाठ विवरण संसाधित करते थे। मानव और मशीन प्रसंस्करण के बीच संबंध आकर्षक है, लेकिन यह साबित नहीं करता है कि मशीनें मानव की तरह अवधारणाओं को समझती हैं।

कार्य प्रदर्शन में स्पष्ट अंतर हैं। जबकि सर्वश्रेष्ठ एआई मॉडल ने सरल पैटर्न पर मानव-स्तर की सटीकता के करीब पहुंचा, उन्होंने सबसे जटिल कार्यों पर मानव प्रतिभागियों की तुलना में अधिक नाटकीय प्रदर्शन में गिरावट दिखाई। यह सुझाव देता है कि संगठन में समानता के बावजूद, मानव और मशीन द्वारा कठिन अमूर्त अवधारणाओं को संसाधित करने में अभी भी मूलभूत अंतर हो सकते हैं।

सkeptical परिप्रेक्ष्य

इन प्रभावशाली निष्कर्षों के बावजूद, एक मजबूत तर्क यह है कि एलएलएम कुछ और नहीं हैं बल्कि एक बहुत ही कुशल अनुकरणकर्ता हैं। यह दृष्टिकोण दार्शनिक जॉन सेरले के “चाइनीज रूम” विचार प्रयोग से आता है जो यह दिखाता है कि व्यवहार समझ से क्यों नहीं मेल खाता।

इस विचार प्रयोग में, सेरले हमें एक व्यक्ति को एक कमरे में बंद करने के लिए कहता है जो केवल अंग्रेजी बोलता है। व्यक्ति को चीनी प्रतीक मिलते हैं और एक अंग्रेजी नियम पुस्तिका का उपयोग करके इन प्रतीकों को मैनिप्युलेट करता है और प्रतिक्रिया उत्पन्न करता है। कमरे के बाहर से, उनकी प्रतिक्रिया एक मूल चीनी वक्ता की तरह लगती है। हालांकि, सेरले तर्क देते हैं कि व्यक्ति चीनी के बारे में कुछ भी नहीं समझता है। वह नियमों का पालन करता है बिना किसी वास्तविक समझ के।

आलोचक एलएलएम पर इसी तर्क को लागू करते हैं। वे तर्क देते हैं कि ये प्रणालियां “स्टोकास्टिक तोते” हैं जो वास्तविक समझ के बजाय अपने प्रशिक्षण डेटा में सांख्यिकीय पैटर्न के आधार पर प्रतिक्रिया उत्पन्न करती हैं। “स्टोकास्टिक” शब्द उनके संभाव्य स्वभाव को संदर्भित करता है, जबकि “तोता” उनके अनुकरण व्यवहार पर जोर देता है जो वास्तविक समझ के बिना है।

एलएलएम की कई तकनीकी सीमाएं इस तर्क का समर्थन करती हैं। एलएलएम अक्सर “हॉलुसिनेशन” उत्पन्न करते हैं; प्रतिक्रियाएं जो संभावित लगती हैं लेकिन पूरी तरह से गलत, भ्रामक और अर्थहीन हैं। यह तब होता है जब वे आंतरिक ज्ञान आधार या सच्चाई और झूठ की समझ की तुलना में सांख्यिकीय रूप से संभावित शब्दों का चयन करते हैं। ये मॉडल मानव त्रुटियों और पूर्वाग्रहों को भी दोहराते हैं। वे ऐसी अनावश्यक जानकारी से भ्रमित हो जाते हैं जिसे मानव आसानी से अनदेखा करेंगे। वे नस्लीय और लिंग पूर्वाग्रह प्रदर्शित करते हैं क्योंकि वे इन पूर्वाग्रहों वाले डेटा से सीखते हैं। एक और प्रकट सीमा “स्थिति पूर्वाग्रह” है, जहां मॉडल लंबे दस्तावेजों की शुरुआत या अंत में जानकारी पर जोर देते हैं जबकि मध्य सामग्री की उपेक्षा करते हैं। यह “मध्य में खो जाना” घटना सुझाव देती है कि ये प्रणालियां जानकारी को मानवों की तुलना में बहुत अलग तरीके से संसाधित करती हैं, जो पूरे दस्तावेजों में ध्यान केंद्रित कर सकते हैं।

इन सीमाओं को उजागर करता है कि एक केंद्रीय चुनौती यह है कि जबकि एलएलएम भाषा पैटर्न को पहचानने और पुन: उत्पन्न करने में उत्कृष्ट हैं, यह जरूरी नहीं है कि वे वास्तविक अर्थ या वास्तविक दुनिया के संदर्भ को समझते हैं। वे व्याकरण को संभालने में अच्छे हैं लेकिन सेमेंटिक्स के मामले में सीमित रहते हैं।

बुद्धिमत्ता क्या है?

यह विवाद अंततः इस बात पर नीचे आता है कि हम बुद्धिमत्ता को कैसे परिभाषित करते हैं। यदि बुद्धिमत्ता सुसंगत भाषा उत्पन्न करने, समस्याओं को हल करने और नई स्थितियों के अनुकूल होने की क्षमता है, तो एलएलएम पहले से ही उस मानक को पूरा करते हैं। हालांकि, यदि बुद्धिमत्ता के लिए आत्म-जागरूकता, वास्तविक समझ, या विषयगत अनुभव की आवश्यकता होती है, तो ये प्रणालियां अभी भी कम पड़ती हैं।

कठिनाई यह है कि हमारे पास समझ जैसी गुणों को मापने के लिए एक स्पष्ट या वस्तुनिष्ठ तरीका नहीं है। मानव और मशीन दोनों में, हम उन्हें व्यवहार से अनुमान लगाते हैं। बतख परीक्षण और ट्यूरिंग परीक्षण एक बार सुंदर उत्तर प्रदान करते थे, लेकिन एलएलएम के युग में, वे अब पर्याप्त नहीं हो सकते हैं। उनकी क्षमताएं हमें यह पुनर्विचार करने के लिए मजबूर करती हैं कि वास्तव में क्या बुद्धिमत्ता मानी जाती है और क्या हमारी पारंपरिक परिभाषाएं तकनीकी वास्तविकता के साथ तालमेल बिठा रही हैं।

नीचे की पंक्ति

बड़े भाषा मॉडल एआई बुद्धिमत्ता को कैसे परिभाषित करते हैं, इसे चुनौती देते हैं। वे तर्क की नकल कर सकते हैं, विचार उत्पन्न कर सकते हैं, और ऐसे कार्य कर सकते हैं जो एक बार मानवीय माने जाते थे। फिर भी, वे वास्तविक मानव-जैसी सोच को आकार देने वाली जागरूकता और आधार की कमी है। उनका उदय हमें यह पूछने के लिए मजबूर करता है कि न केवल मशीनें बुद्धिमान कार्य करती हैं या नहीं, बल्कि बुद्धिमत्ता स्वयं वास्तव में क्या है।

рдбреЙ. рддрд╣рд╕реАрди рдЬрд╝рд┐рдпрд╛ рдХреЛрдореНрд╕реИрдЯреНрд╕ рдпреВрдирд┐рд╡рд░реНрд╕рд┐рдЯреА рдЗрд╕реНрд▓рд╛рдорд╛рдмрд╛рдж рдореЗрдВ рдПрдХ рдЯреЗрдиреНрдпреЛрд░реНрдб рдПрд╕реЛрд╕рд┐рдПрдЯ рдкреНрд░реЛрдлреЗрд╕рд░ рд╣реИрдВ, рдЬреЛ рдСрд╕реНрдЯреНрд░рд┐рдпрд╛ рдХреА рд╡рд┐рдпрдирд╛ рдЯреЗрдХреНрдиреЛрд▓реЙрдЬреА рдпреВрдирд┐рд╡рд░реНрд╕рд┐рдЯреА рд╕реЗ рдПрдЖрдИ рдореЗрдВ рдкреАрдПрдЪрдбреА рд░рдЦрддреЗ рд╣реИрдВред рдЖрд░реНрдЯрд┐рдлрд┐рд╢рд┐рдпрд▓ рдЗрдВрдЯреЗрд▓рд┐рдЬреЗрдВрд╕, рдорд╢реАрди рд▓рд░реНрдирд┐рдВрдЧ, рдбреЗрдЯрд╛ рд╕рд╛рдЗрдВрд╕ рдФрд░ рдХрдВрдкреНрдпреВрдЯрд░ рд╡рд┐рдЬрди рдореЗрдВ рд╡рд┐рд╢реЗрд╖рдЬреНрдЮрддрд╛, рдЙрдиреНрд╣реЛрдВрдиреЗ рдкреНрд░рддрд┐рд╖реНрдард┐рдд рд╡реИрдЬреНрдЮрд╛рдирд┐рдХ рдкрддреНрд░рд┐рдХрд╛рдУрдВ рдореЗрдВ рдкреНрд░рдХрд╛рд╢рди рдХреЗ рд╕рд╛рде рдорд╣рддреНрд╡рдкреВрд░реНрдг рдпреЛрдЧрджрд╛рди рджрд┐рдпрд╛ рд╣реИред рдбреЙ. рддрд╣рд╕реАрди рдиреЗ рдкреНрд░рд┐рдВрд╕рд┐рдкрд▓ рдЗрдиреНрд╡реЗрд╕реНрдЯрд┐рдЧреЗрдЯрд░ рдХреЗ рд░реВрдк рдореЗрдВ рд╡рд┐рднрд┐рдиреНрди рдФрджреНрдпреЛрдЧрд┐рдХ рдкрд░рд┐рдпреЛрдЬрдирд╛рдУрдВ рдХрд╛ рдиреЗрддреГрддреНрд╡ рдХрд┐рдпрд╛ рд╣реИ рдФрд░ рдПрдХ рдПрдЖрдИ рд╕рд▓рд╛рд╣рдХрд╛рд░ рдХреЗ рд░реВрдк рдореЗрдВ рдХрд╛рд░реНрдп рдХрд┐рдпрд╛ рд╣реИред