Artificial Intelligence
पुनर्प्राप्ति संवर्धित पीढ़ी (आरएजी) का उपयोग करके एलएलएम मतिभ्रम पर काबू पाना

बड़े भाषा मॉडल (एलएलएम) भाषा को संसाधित करने और उत्पन्न करने के तरीके में क्रांतिकारी बदलाव ला रहे हैं, लेकिन वे अपूर्ण हैं। जैसे मनुष्य बादलों में आकृतियाँ या चंद्रमा पर चेहरे देख सकते हैं, एलएलएम भी 'मतिभ्रम' कर सकते हैं, ऐसी जानकारी बना सकते हैं जो सटीक नहीं है। इस घटना को, के नाम से जाना जाता है एलएलएम मतिभ्रम, जैसे-जैसे एलएलएम का उपयोग बढ़ रहा है, चिंता बढ़ती जा रही है।
गलतियाँ उपयोगकर्ताओं को भ्रमित कर सकती हैं और, कुछ मामलों में, कंपनियों के लिए कानूनी परेशानी भी पैदा कर सकती हैं। उदाहरण के लिए, 2023 में, वायु सेना के एक अनुभवी जेफ़री बैटल (एयरोस्पेस प्रोफेसर के रूप में जाने जाते हैं) माइक्रोसॉफ्ट के खिलाफ मुकदमा दायर किया जब उन्होंने पाया कि माइक्रोसॉफ्ट की चैटजीपीटी-संचालित बिंग खोज कभी-कभी उनके नाम खोज पर तथ्यात्मक रूप से गलत और हानिकारक जानकारी देती है। खोज इंजन उसे एक दोषी अपराधी जेफ़री लियोन बैटल के साथ भ्रमित करता है।
मतिभ्रम से निपटने के लिए, पुनर्प्राप्ति-संवर्धित पीढ़ी (आरएजी) एक आशाजनक समाधान के रूप में उभरा है। इसमें एलएलएम के परिणाम सटीकता और विश्वसनीयता को बढ़ाने के लिए बाहरी डेटाबेस से ज्ञान शामिल किया गया है। आइए देखें कि आरएजी कैसे एलएलएम को अधिक सटीक और विश्वसनीय बनाता है। हम इस बात पर भी चर्चा करेंगे कि क्या आरएजी एलएलएम मतिभ्रम मुद्दे का प्रभावी ढंग से प्रतिकार कर सकता है।
एलएलएम मतिभ्रम को समझना: कारण और उदाहरण
एलएलएम, जैसे प्रसिद्ध मॉडल शामिल हैं ChatGPT, चैटजीएलएम, तथा क्लाउड, व्यापक पाठ्य डेटासेट पर प्रशिक्षित होते हैं लेकिन तथ्यात्मक रूप से गलत आउटपुट उत्पन्न करने से प्रतिरक्षित नहीं होते हैं, एक घटना जिसे 'मतिभ्रम' कहा जाता है। मतिभ्रम इसलिए होता है क्योंकि एलएलएम को उनकी तथ्यात्मक सटीकता की परवाह किए बिना, अंतर्निहित भाषा नियमों के आधार पर सार्थक प्रतिक्रियाएं बनाने के लिए प्रशिक्षित किया जाता है।
A टिडियो अध्ययन पाया गया कि जहां 72% उपयोगकर्ता मानते हैं कि एलएलएम विश्वसनीय हैं, वहीं 75% ने कम से कम एक बार एआई से गलत जानकारी प्राप्त की है। यहां तक कि जीपीटी-3.5 और जीपीटी-4 जैसे सबसे आशाजनक एलएलएम मॉडल भी कभी-कभी गलत या निरर्थक सामग्री उत्पन्न कर सकते हैं।
यहां सामान्य प्रकार के एलएलएम मतिभ्रम का संक्षिप्त विवरण दिया गया है:
सामान्य AI मतिभ्रम प्रकार:
- स्रोत संगम: ऐसा तब होता है जब एक मॉडल विभिन्न स्रोतों से विवरणों को मिलाता है, जिससे विरोधाभास या यहां तक कि मनगढ़ंत स्रोत उत्पन्न होते हैं।
- तथ्यात्मक त्रुटियाँ: एलएलएम गलत तथ्यात्मक आधार वाली सामग्री तैयार कर सकते हैं, खासकर इंटरनेट की अंतर्निहित अशुद्धियों को देखते हुए
- निरर्थक जानकारी: एलएलएम संभाव्यता के आधार पर अगले शब्द की भविष्यवाणी करते हैं। इसके परिणामस्वरूप व्याकरणिक रूप से सही लेकिन अर्थहीन पाठ हो सकता है, जो सामग्री के अधिकार के बारे में उपयोगकर्ताओं को गुमराह कर सकता है।
पिछले सालचैटजीपीटी-जनित जानकारी से गुमराह होकर, दो वकीलों को अपने कानूनी दस्तावेजों में छह गैर-मौजूद मामलों को संदर्भित करने के लिए संभावित प्रतिबंधों का सामना करना पड़ा। यह उदाहरण विश्वसनीयता सुनिश्चित करने के लिए सत्यापन की आवश्यकता को रेखांकित करते हुए, एलएलएम-जनित सामग्री को आलोचनात्मक नजर से देखने के महत्व पर प्रकाश डालता है। जबकि इसकी रचनात्मक क्षमता कहानी कहने जैसे अनुप्रयोगों को लाभ पहुंचाती है, यह तथ्यों के सख्त पालन की आवश्यकता वाले कार्यों के लिए चुनौतियां पेश करती है, जैसे अकादमिक अनुसंधान करना, चिकित्सा और वित्तीय विश्लेषण रिपोर्ट लिखना और कानूनी सलाह प्रदान करना।
एलएलएम मतिभ्रम के समाधान की खोज: रिट्रीवल ऑगमेंटेड जेनरेशन (आरएजी) कैसे काम करता है
2020 में, एलएलएम शोधकर्ता नामक एक तकनीक प्रस्तुत की पुनर्प्राप्ति संवर्धित पीढ़ी (आरएजी) बाहरी डेटा स्रोत को एकीकृत करके एलएलएम मतिभ्रम को कम करने के लिए। पारंपरिक एलएलएम के विपरीत, जो पूरी तरह से अपने पूर्व-प्रशिक्षित ज्ञान पर निर्भर करते हैं, आरएजी-आधारित एलएलएम मॉडल प्रश्नों का उत्तर देने या पाठ उत्पन्न करने से पहले बाहरी डेटाबेस से प्रासंगिक जानकारी को गतिशील रूप से पुनर्प्राप्त करके तथ्यात्मक रूप से सटीक प्रतिक्रियाएं उत्पन्न करते हैं।
आरएजी प्रक्रिया टूटना:
आरएजी प्रक्रिया के चरण: स्रोत
चरण 1: पुनर्प्राप्ति
सिस्टम उपयोगकर्ता की क्वेरी से संबंधित जानकारी के लिए एक विशिष्ट ज्ञान आधार खोजता है। उदाहरण के लिए, यदि कोई पिछले फुटबॉल विश्व कप विजेता के बारे में पूछता है, तो वह सबसे प्रासंगिक फुटबॉल जानकारी की तलाश करता है।
चरण 2: विस्तार
फिर मूल क्वेरी को मिली जानकारी के साथ बढ़ाया जाता है। फ़ुटबॉल उदाहरण का उपयोग करते हुए, प्रश्न "फुटबॉल विश्व कप किसने जीता?" विशिष्ट विवरणों के साथ अद्यतन किया जाता है जैसे "अर्जेंटीना ने फुटबॉल विश्व कप जीता।"
चरण 3: पीढ़ी
समृद्ध क्वेरी के साथ, एलएलएम एक विस्तृत और सटीक प्रतिक्रिया उत्पन्न करता है। हमारे मामले में, यह अर्जेंटीना के विश्व कप जीतने के बारे में संवर्धित जानकारी के आधार पर एक प्रतिक्रिया तैयार करेगा।
यह विधि अशुद्धियों को कम करने में मदद करती है और यह सुनिश्चित करती है कि एलएलएम की प्रतिक्रियाएँ अधिक विश्वसनीय और सटीक डेटा पर आधारित हों।
मतिभ्रम को कम करने में आरएजी के फायदे और नुकसान
आरएजी ने उत्पादन प्रक्रिया को ठीक करके मतिभ्रम को कम करने का वादा दिखाया है। यह तंत्र आरएजी मॉडल को अधिक सटीक, अद्यतन और प्रासंगिक रूप से प्रासंगिक जानकारी प्रदान करने की अनुमति देता है।
निश्चित रूप से, अधिक सामान्य अर्थों में रिट्रीवल ऑगमेंटेड जेनरेशन (आरएजी) पर चर्चा करने से विभिन्न कार्यान्वयनों में इसके फायदे और सीमाओं की व्यापक समझ मिलती है।
आरएजी के लाभ:
- बेहतर जानकारी खोज: आरएजी बड़े डेटा स्रोतों से तुरंत सटीक जानकारी ढूंढ लेता है।
- बेहतर सामग्री: यह उपयोगकर्ताओं की आवश्यकता के अनुसार स्पष्ट, सुमेलित सामग्री बनाता है।
- लचीला उपयोग: उपयोगकर्ता अपनी विशिष्ट आवश्यकताओं के अनुरूप आरएजी को समायोजित कर सकते हैं, जैसे अपने मालिकाना डेटा स्रोतों का उपयोग करना, प्रभावशीलता को बढ़ाना।
आरएजी की चुनौतियाँ:
- विशिष्ट डेटा की आवश्यकता: प्रासंगिक और सटीक जानकारी प्रदान करने के लिए क्वेरी संदर्भ को सटीक रूप से समझना मुश्किल हो सकता है।
- अनुमापकता: प्रदर्शन को बनाए रखते हुए बड़े डेटासेट और प्रश्नों को संभालने के लिए मॉडल का विस्तार करना कठिन है।
- सतत अद्यतन: नवीनतम जानकारी के साथ ज्ञान डेटासेट को स्वचालित रूप से अपडेट करना संसाधन-गहन है।
आरएजी के विकल्प तलाशना
आरएजी के अलावा, यहां कुछ अन्य आशाजनक तरीके हैं जो एलएलएम शोधकर्ताओं को मतिभ्रम को कम करने में सक्षम बनाते हैं:
- जी-ईवल: विश्वसनीय डेटासेट के साथ उत्पन्न सामग्री की सटीकता को क्रॉस-सत्यापित करता है, जिससे विश्वसनीयता बढ़ती है।
- सेल्फचेकजीपीटी: आउटपुट को सटीक और सुसंगत बनाए रखने के लिए अपनी त्रुटियों को स्वचालित रूप से जांचता है और ठीक करता है।
- शीघ्र इंजीनियरिंग: उपयोगकर्ताओं को सटीक, प्रासंगिक प्रतिक्रियाओं की दिशा में मॉडलों का मार्गदर्शन करने के लिए सटीक इनपुट संकेत डिज़ाइन करने में सहायता करता है।
- फ़ाइन ट्यूनिंग: बेहतर डोमेन-विशिष्ट प्रदर्शन के लिए मॉडल को कार्य-विशिष्ट डेटासेट में समायोजित करता है।
- लोरा (निम्न-रैंक अनुकूलन): यह विधि कार्य-विशिष्ट अनुकूलन के लिए मॉडल के मापदंडों के एक छोटे से हिस्से को संशोधित करती है, जिससे दक्षता बढ़ती है।
आरएजी और इसके विकल्पों की खोज एलएलएम सटीकता और विश्वसनीयता में सुधार के लिए गतिशील और बहुआयामी दृष्टिकोण पर प्रकाश डालती है। जैसे-जैसे हम आगे बढ़ रहे हैं, एलएलएम मतिभ्रम की अंतर्निहित चुनौतियों के समाधान के लिए आरएजी जैसी प्रौद्योगिकियों में निरंतर नवाचार आवश्यक है।
गहन विश्लेषण और समाचार सहित एआई और मशीन लर्निंग में नवीनतम विकास से अपडेट रहने के लिए, यहां जाएं एकजुट.एआई.