Connect with us

рдПрд▓рдПрд▓рдПрдо рд╣реЙрд▓реБрд╕рд┐рдиреЗрд╢рди рдХреНрдпрд╛ рд╣реИрдВ? рдХрд╛рд░рдг, рдиреИрддрд┐рдХ рдЪрд┐рдВрддрд╛, рдФрд░ рд░реЛрдХрдерд╛рдо

рдХреГрддреНрд░рд┐рдо рдмреБрджреНрдзрд┐рдорддреНрддрд╛

рдПрд▓рдПрд▓рдПрдо рд╣реЙрд▓реБрд╕рд┐рдиреЗрд╢рди рдХреНрдпрд╛ рд╣реИрдВ? рдХрд╛рд░рдг, рдиреИрддрд┐рдХ рдЪрд┐рдВрддрд╛, рдФрд░ рд░реЛрдХрдерд╛рдо

mm

बड़े भाषा मॉडल (एलएलएम) आर्टिफ़िशियल इंटेलिजेंस सिस्टम हैं जो मानव-जैसे पाठ का विश्लेषण और उत्पादन करने में सक्षम हैं। लेकिन उन्हें एक समस्या है – एलएलएम हॉलुसिनेट करते हैं, अर्थात्, वे चीजें बनाते हैं। एलएलएम हॉलुसिनेशन ने शोधकर्ताओं को इस क्षेत्र में प्रगति के बारे में चिंतित किया है क्योंकि यदि शोधकर्ता मॉडल के परिणाम को नियंत्रित नहीं कर सकते हैं, तो वे मानवता की सेवा के लिए महत्वपूर्ण प्रणाली नहीं बना सकते हैं। इसके बारे में बाद में और जानकारी दी जाएगी।

आम तौर पर, एलएलएम वास्तविक आउटपुट उत्पन्न करने के लिए विशाल प्रशिक्षण डेटा और जटिल सीखने के एल्गोरिदम का उपयोग करते हैं। कुछ मामलों में, संदर्भ सीखने का उपयोग इन मॉडलों को केवल कुछ उदाहरणों का उपयोग करके प्रशिक्षित करने के लिए किया जाता है। एलएलएम विभिन्न अनुप्रयोग क्षेत्रों में तेजी से लोकप्रिय हो रहे हैं, जिनमें मशीन अनुवाद, भावना विश्लेषण, वर्चुअल एआई सहायता, छवि अनnotation, प्राकृतिक भाषा प्रसंस्करण आदि शामिल हैं।

एलएलएम की अग्रिम प्रकृति के बावजूद, वे अभी भी पूर्वाग्रहों, त्रुटियों और हॉलुसिनेशन के लिए अतिसंवेदनशील हैं। मेटा के वर्तमान मुख्य एआई वैज्ञानिक यान लेकुन ने हाल ही में एलएलएम में हॉलुसिनेशन का कारण बनने वाली केंद्रीय खामी का उल्लेख किया है: “बड़े भाषा मॉडल को भाषा द्वारा वर्णित अंतर्निहित वास्तविकता का कोई विचार नहीं है। वे ऐसा पाठ उत्पन्न करते हैं जो व्याकरण और अर्थ रूप से ठीक लगता है, लेकिन उनके पास केवल सांख्यिकीय संगतता के साथ प्रोम्प्ट को संतुष्ट करने के अलावा कोई उद्देश्य नहीं है”

एलएलएम में हॉलुसिनेशन

गेराल्ट द्वारा पिक्साबे से छवि

हॉलुसिनेशन से तात्पर्य मॉडल द्वारा आउटपुट का उत्पादन करने से है जो व्याकरण और अर्थ रूप से सही है, लेकिन वास्तविकता से जुड़ा नहीं है और झूठे अनुमानों पर आधारित है। हॉलुसिनेशन एलएलएम की एक प्रमुख नैतिक चिंता है, और इसके हानिकारक परिणाम हो सकते हैं क्योंकि पर्याप्त डोमेन ज्ञान के बिना उपयोगकर्ता इन बढ़ती रूप से आश्वस्त भाषा मॉडल पर अधिक भरोसा करने लगते हैं।

सभी स्व-रिग्रेसिव एलएलएम में हॉलुसिनेशन का एक निश्चित स्तर अपरिहार्य है। उदाहरण के लिए, एक मॉडल एक ऐसा उद्धरण जोड़ सकता है जो एक सेलिब्रिटी द्वारा कभी नहीं कहा गया था। वे किसी विशिष्ट विषय के बारे में कुछ ऐसा कह सकते हैं जो तथ्यात्मक रूप से गलत है या शोध पत्रों में गैर-मौजूद स्रोतों का हवाला दे सकते हैं, जिससे गलत सूचना फैलती है।

हालांकि, एआई मॉडल को हॉलुसिनेट करने से हमेशा हानिकारक प्रभाव नहीं होता है। उदाहरण के लिए, एक नई अध्ययन सुझाव देती है कि वैज्ञानिक हॉलुसिनेट एलएलएम के माध्यम से ‘नवीन प्रोटीन की एक असीमित श्रृंखला’ का पता लगा रहे हैं।

एलएलएम हॉलुसिनेशन के कारण क्या हैं?

एलएलएम ओवरफिटिंग त्रुटियों, एन्कोडिंग और डीकोडिंग में त्रुटियों और प्रशिक्षण पूर्वाग्रह जैसे विभिन्न कारकों के कारण हॉलुसिनेट कर सकते हैं।

ओवरफिटिंग

janjf93 द्वारा पिक्साबे से छवि

ओवरफिटिंग एक समस्या है जहां एक एआई मॉडल प्रशिक्षण डेटा को बहुत अच्छी तरह से फिट करता है। हालांकि, यह पूरी श्रृंखला का प्रतिनिधित्व नहीं कर सकता है जो यह मिल सकता है, अर्थात्, यह नए, अनदेखे डेटा पर अपनी भविष्यवाणी शक्ति को सामान्य नहीं कर सकता। ओवरफिटिंग हॉलुसिनेटेड सामग्री का उत्पादन करने वाले मॉडल का कारण बन सकता है।

एन्कोडिंग और डीकोडिंग त्रुटियां

गेराल्ट द्वारा पिक्साबे से छवि

यदि पाठ और इसके बाद के प्रतिनिधित्व के एन्कोडिंग और डीकोडिंग में त्रुटियां हैं, तो यह भी मॉडल को अर्थहीन और त्रुटिपूर्ण आउटपुट उत्पन्न करने का कारण बन सकता है।

प्रशिक्षण पूर्वाग्रह

क्विंस क्रिएटिव द्वारा पिक्साबे से छवि

एक अन्य कारक प्रशिक्षण डेटा में कुछ पूर्वाग्रहों की उपस्थिति है, जो मॉडल को वास्तविक डेटा की प्रकृति के बजाय उन पूर्वाग्रहों का प्रतिनिधित्व करने वाले परिणाम देने का कारण बन सकता है। यह प्रशिक्षण डेटा में विविधता की कमी के समान है, जो मॉडल की नई डेटा को सामान्य करने की क्षमता को सीमित करता है।

एलएलएम की जटिल संरचना यह चुनौतीपूर्ण बनाती है कि एआई शोधकर्ता और पрак्टिशनर हॉलुसिनेशन के अंतर्निहित कारणों की पहचान, व्याख्या और सुधार करें।

एलएलएम हॉलुसिनेशन की नैतिक चिंताएं

एलएलएम हॉलुसिनेशन के माध्यम से हानिकारक पूर्वाग्रहों को बढ़ावा दे सकते हैं और नकारात्मक रूप से उपयोगकर्ताओं और हानिकारक सामाजिक परिणामों को प्रभावित कर सकते हैं। इनमें से कुछ सबसे महत्वपूर्ण नैतिक चिंताएं नीचे सूचीबद्ध हैं:

भेदभावपूर्ण और विषाक्त सामग्री

ar130405 द्वारा पिक्साबे से छवि

चूंकि एलएलएम प्रशिक्षण डेटा अक्सर सामाजिक-सांस्कृतिक रूढ़िवादिता से भरा होता है जो अंतर्निहित पूर्वाग्रहों और विविधता की कमी के कारण होता है। एलएलएम, इस प्रकार, इन हानिकारक विचारों का उत्पादन और प्रबल करने में सक्षम हो सकते हैं जो समाज में वंचित समूहों के खिलाफ हैं।

वे नस्ल, लिंग, धर्म, जातीयता आदि के आधार पर भेदभावपूर्ण और घृणित सामग्री का उत्पादन कर सकते हैं।

गोपनीयता मुद्दे

JanBaby द्वारा पिक्साबे से छवि

एलएलएम को एक विशाल प्रशिक्षण निगम पर प्रशिक्षित किया जाता है जिसमें अक्सर व्यक्तियों की व्यक्तिगत जानकारी शामिल होती है। ऐसे मामले सामने आए हैं जहां ऐसे मॉडल ने लोगों की गोपनीयता का उल्लंघन किया है। वे विशिष्ट जानकारी जैसे सामाजिक सुरक्षा संख्या, घर के पते, मोबाइल फोन नंबर और चिकित्सा विवरण का रिसाव कर सकते हैं।

भ्रामक और गलत सूचना

गेराल्ट द्वारा पिक्साबे से छवि

भाषा मॉडल मानव-जैसी सामग्री का उत्पादन कर सकते हैं जो सटीक लगती है लेकिन वास्तव में गलत है और साक्ष्यात्मक साक्ष्य द्वारा समर्थित नहीं है। यह दुर्भाग्यपूर्ण हो सकता है, जिससे भ्रामक सूचना फैलती है, या इसके पीछे दुर्भावनापूर्ण इरादा हो सकता है जो जानबूझकर गलत सूचना फैलाने के लिए हो। यदि यह अनियंत्रित रहता है, तो यह हानिकारक सामाजिक-सांस्कृतिक-आर्थिक-राजनीतिक रुझानों का निर्माण कर सकता है।

एलएलएम हॉलुसिनेशन की रोकथाम

athree23 द्वारा पिक्साबे से छवि

शोधकर्ता और पрак्टिशनर एलएलएम में हॉलुसिनेशन की समस्या को संबोधित करने के लिए विभिन्न दृष्टिकोण ले रहे हैं। इनमें प्रशिक्षण डेटा की विविधता में सुधार, अंतर्निहित पूर्वाग्रहों को खत्म करना, बेहतर नियमितीकरण तकनीकों का उपयोग करना और प्रतिपक्षी प्रशिक्षण और प्रबलीकरण सीखने का उपयोग करना शामिल है:

  • बेहतर नियमितीकरण तकनीकों का विकास हॉलुसिनेशन को संबोधित करने के लिए केंद्रीय है। वे ओवरफिटिंग और अन्य समस्याओं को रोकने में मदद करते हैं जो हॉलुसिनेशन का कारण बनते हैं।
  • डेटा ऑगमेंटेशन हॉलुसिनेशन की आवृत्ति को कम कर सकता है, जैसा कि एक शोध अध्ययन में देखा गया है। डेटा ऑगमेंटेशन प्रशिक्षण सेट में एक यादृच्छिक टोकन जोड़कर शामिल किया जाता है। यह प्रशिक्षण सेट के आकार को दोगुना कर देता है और हॉलुसिनेशन की आवृत्ति में कमी आती है।
  • ओपनएआई और गूगल के डीपमाइंड ने हॉलुसिनेशन की समस्या को संबोधित करने के लिए एक तकनीक विकसित की है जिसे मानव प्रतिक्रिया के साथ प्रबलीकरण सीखना कहा जाता है। इसमें एक मानव मूल्यांकनकर्ता शामिल होता है जो मॉडल की प्रतिक्रियाओं की नियमित रूप से समीक्षा करता है और उपयोगकर्ता प्रोम्प्ट के लिए सबसे उपयुक्त का चयन करता है। यह प्रतिक्रिया तब मॉडल के व्यवहार को समायोजित करने के लिए उपयोग की जाती है। ओपनएआई के मुख्य वैज्ञानिक इल्या सुत्स्केवर ने हाल ही में उल्लेख किया है कि यह दृष्टिकोण चैटजीपीटी में हॉलुसिनेशन को संभावित रूप से हल कर सकता है: “मैं आशावादी हूं कि मानव प्रतिक्रिया से प्रबलीकरण सीखने के बाद के चरण में सुधार करके, हम इसे हॉलुसिनेट नहीं करना सिखा सकते हैं”
  • हॉलुसिनेटेड सामग्री की पहचान करना और इसका उपयोग भविष्य के प्रशिक्षण के लिए करना भी हॉलुसिनेशन को संबोधित करने का एक तरीका है। एक नवीन तकनीक हॉलुसिनेशन का पता लगाने के लिए टोकन स्तर पर हॉलुसिनेशन का पता लगाती है और प्रत्येक टोकन की भविष्यवाणी करती है कि आउटपुट में क्या हॉलुसिनेटेड है।

साधारण शब्दों में, एलएलएम हॉलुसिनेशन एक बढ़ती चिंता का विषय है। और प्रयासों के बावजूद, इस समस्या को संबोधित करने के लिए अभी भी बहुत काम करने की आवश्यकता है। इन मॉडलों की जटिलता का अर्थ है कि हॉलुसिनेशन के अंतर्निहित कारणों की पहचान और सुधार करना सामान्य रूप से चुनौतीपूर्ण है।

हालांकि, निरंतर शोध और विकास के साथ, एलएलएम में हॉलुसिनेशन को कम करना और उनके नैतिक परिणामों को कम करना संभव है।

यदि आप एलएलएम और हॉलुसिनेशन को संबोधित करने के लिए विकसित की जा रही रोकथाम तकनीकों के बारे में अधिक जानना चाहते हैं, तो unite.ai पर जाएं ताकि आप अपने ज्ञान का विस्तार कर सकें।

рд╣рд╛рдЬрд╝рд┐рдХрд╛ рдПрдХ рдбреЗрдЯрд╛ рд╕рд╛рдЗрдВрдЯрд┐рд╕реНрдЯ рд╣реИрдВ рдЬрд┐рдирдХреЗ рдкрд╛рд╕ рдПрдЖрдИ рдФрд░ рд╕рд╛рд╕ рдХрдВрдкрдирд┐рдпреЛрдВ рдХреЗ рд▓рд┐рдП рддрдХрдиреАрдХреА рд╕рд╛рдордЧреНрд░реА рд▓рд┐рдЦрдиреЗ рдХрд╛ рд╡реНрдпрд╛рдкрдХ рдЕрдиреБрднрд╡ рд╣реИред