Connect with us

LLM рдореЗрдВ рд╡рд░реНрддрдорд╛рди рдореБрджреНрджреЛрдВ рдХреЛ рд╕рдВрдмреЛрдзрд┐рдд рдХрд░рдирд╛ рдФрд░ рдЖрдЧреЗ рдХреА рдУрд░ рджреЗрдЦрдирд╛

рд╡рд┐рдЪрд╛рд░ рдиреЗрддрд╛

LLM рдореЗрдВ рд╡рд░реНрддрдорд╛рди рдореБрджреНрджреЛрдВ рдХреЛ рд╕рдВрдмреЛрдзрд┐рдд рдХрд░рдирд╛ рдФрд░ рдЖрдЧреЗ рдХреА рдУрд░ рджреЗрдЦрдирд╛

mm

आज, दर्जनों सार्वजनिक रूप से उपलब्ध बड़े भाषा मॉडल (LLM) हैं, जैसे कि GPT-3, GPT-4, LaMDA, या Bard, और नए मॉडल जारी होने के साथ संख्या लगातार बढ़ रही है। LLM ने कृत्रिम बुद्धिमत्ता को क्रांतिकारी बना दिया है, पूरी तरह से विभिन्न उद्योगों में प्रौद्योगिकी के साथ हमारे संवाद को बदल दिया है। ये मॉडल हमें कई मानव भाषा डेटासेट से सीखने की अनुमति देते हैं और नवाचार, रचनात्मकता और दक्षता के लिए नए मार्ग खोले हैं।

हालांकि, महान शक्ति के साथ महान जटिलता आती है। LLM के आसपास निहित चुनौतियां और नैतिक मुद्दे हैं जिन्हें संबोधित किया जाना चाहिए ताकि हम उनका पूर्ण क्षमता के साथ उपयोग कर सकें। उदाहरण के लिए, एक हालिया स्टैनफोर्ड अध्ययन में पाया गया कि जब यह कुछ प्रश्नों को संसाधित करता है जिनमें पहले और अंतिम नाम शामिल होते हैं जो जाति या लिंग की ओर संकेत करते हैं, तो ChatGPT-4 में नस्लीय और लिंग पक्षपात होता है। इस अध्ययन में, कार्यक्रम से यह पूछा गया कि किसी उपयोग की गई साइकिल के लिए कितना भुगतान करना चाहिए जो किसी व्यक्ति द्वारा बेची जा रही है जिसका नाम जमाल वाशिंगटन है, जो कि जब विक्रेता का नाम लोगन बेकर होता है तो बहुत कम राशि प्रदान करता है। जैसे ही ये खोजें सामने आती हैं, LLM चुनौतियों को संबोधित करने की आवश्यकता बढ़ जाती है।

सामान्य LLM चिंताओं को कम करने के तरीके

पक्षपात

LLM के बीच सबसे अधिक चर्चित मुद्दों में से एक पक्षपात और न्याय है। एक हालिया अध्ययन में, विशेषज्ञों ने चार हाल ही में प्रकाशित LLM का परीक्षण किया और पाया कि वे सभी पुरुषों और महिलाओं के बारे में पक्षपाती धारणाएं व्यक्त करते हैं, विशेष रूप से वे धारणाएं जो लोगों की धारणाओं के साथ संरेखित होती हैं न कि तथ्यों पर आधारित होती हैं। इस संदर्भ में, पक्षपात असमान उपचार या परिणामों को संदर्भित करता है जो विभिन्न सामाजिक समूहों के बीच होते हैं, जो सबसे अधिक संभावना ऐतिहासिक या संरचनात्मक शक्ति असंतुलन के कारण होते हैं।

LLM में, पक्षपात डेटा चयन, निर्माता जनसांख्यिकी, और भाषा या सांस्कृतिक पक्षपात के कारण होता है। डेटा चयन पक्षपात तब होता है जब LLM प्रशिक्षण के लिए चुने गए ग्रंथ वेब पर उपयोग की जाने वाली भाषा की पूर्ण विविधता का प्रतिनिधित्व नहीं करते हैं। व्यापक, लेकिन सीमित, डेटासेट पर प्रशिक्षित LLM इन ग्रंथों में पहले से मौजूद पक्षपात विरासत में मिल सकते हैं। निर्माता जनसांख्यिकी के साथ, कुछ जनसांख्यिकीय समूहों को अन्य लोगों की तुलना में अधिक बार उजागर किया जाता है, जो सामग्री निर्माण में अधिक विविधता और समावेश की आवश्यकता को दर्शाता है। उदाहरण के लिए, विकिपीडिया, एक सामान्य प्रशिक्षण डेटा स्रोत, अपने संपादकों के बीच एक उल्लेखनीय जनसांख्यिकीय असंतुलन प्रदर्शित करता है जिसमें पुरुषों का बहुमत (84%) है। यह भाषा और संस्कृति के लिए भी समान है। LLM के लिए प्रशिक्षित कई स्रोत अंग्रेजी-केंद्रित हैं, जो हमेशा अन्य भाषाओं और संस्कृतियों में सटीक रूप से अनुवादित नहीं होते हैं।

यह आवश्यक है कि LLM को फिल्टर्ड डेटा पर प्रशिक्षित किया जाए, और गार्डरेल्स को ऐसे विषयों को दबाने के लिए रखा जाए जो डेटा के सुसंगत प्रतिनिधित्व नहीं हैं। ऐसा करने का एक तरीका डेटा ऑगमेंटेशन-आधारित तकनीकों के माध्यम से है। आप प्रशिक्षण डेटा में कम प्रतिनिधित्व वाले समूहों के उदाहरण जोड़ सकते हैं, जिससे डेटासेट की विविधता बढ़ जाती है। एक अन्य कमी रणनीति डेटा फिल्टरिंग और रीवेटिंग है, जो मुख्य रूप से एक मौजूदा डेटासेट के भीतर विशिष्ट, कम प्रतिनिधित्व वाले उदाहरणों को सटीक रूप से लक्षित करने पर केंद्रित है।

हॉलुसिनेशन

LLM के संदर्भ में, हॉलुसिनेशन एक घटना है जो ग्रामर रूप से सही और सुसंगत दिखने वाले पाठ के उत्पादन की विशेषता है, लेकिन वास्तविक तथ्यों या स्रोत सामग्री के इरादे से विचलित हो जाता है। वास्तव में, हाल की रिपोर्ट में पाया गया है कि एक मिनेसोटा कानून पर मुकदमा सीधे LLM हॉलुसिनेशन से प्रभावित है। एक हलफनामा जो कानून का समर्थन करने के लिए प्रस्तुत किया गया था, में गैर-मौजूद स्रोत शामिल पाए गए हैं जो ChatGPT या किसी अन्य LLM द्वारा हॉलुसिनेट किए जा सकते हैं। ये हॉलुसिनेशन आसानी से LLM की विश्वसनीयता को कम कर सकते हैं।

हॉलुसिनेशन के तीन प्राथमिक रूप हैं:

  1. इनपुट-विरोधी हॉलुसिनेशन: यह तब होता है जब LLM का आउटपुट उपयोगकर्ता द्वारा प्रदान किए गए इनपुट से विचलित हो जाता है, जिसमें आमतौर पर कार्य निर्देश और वास्तविक सामग्री शामिल होती है जिसे संसाधित करने की आवश्यकता होती है।
  2. संदर्भ-विरोधी हॉलुसिनेशन: LLM विस्तारित संवाद या कई आदान-प्रदान के दृश्यों में आंतरिक रूप से असंगत प्रतिक्रियाएं उत्पन्न कर सकते हैं। यह सुझाव देता है कि मॉडल की संदर्भ को ट्रैक करने या विभिन्न इंटरैक्शन पर सुसंगतता बनाए रखने की क्षमता में एक संभावित कमी है।
  3. तथ्य-विरोधी हॉलुसिनेशन: यह हॉलुसिनेशन का रूप तब उत्पन्न होता है जब LLM स्थापित तथ्यात्मक ज्ञान के विरोध में सामग्री उत्पन्न करता है। ऐसे त्रुटियों के मूल कारण विविध हैं और LLM के जीवन चक्र में विभिन्न चरणों पर उत्पन्न हो सकते हैं।

इस घटना में कई कारक योगदान करते हैं, जैसे कि ज्ञान की कमी, जो यह समझाता है कि LLM प्री-ट्रेनिंग के दौरान जानकारी को सही ढंग से आत्मसात करने में असमर्थ हो सकते हैं। इसके अलावा, प्रशिक्षण डेटा में पक्षपात या LLM की अनुक्रमिक पीढ़ी रणनीति, जिसे “हॉलुसिनेशन स्नोबॉलिंग” कहा जाता है, हॉलुसिनेशन पैदा कर सकता है।

हॉलुसिनेशन को कम करने के तरीके हैं, हालांकि वे LLM की एक विशेषता बने रहेंगे। हॉलुसिनेशन के लिए उपयोगी कमी रणनीतियों में प्री-ट्रेनिंग के दौरान (मैनुअल रूप से फिल्टरिंग तकनीकों का उपयोग करके डेटा को रिफाइन करना) या फाइन-ट्यूनिंग (प्रशिक्षण डेटा को क्यूरेट करना) शामिल है। हालांकि, अनुमान के दौरान कमी सबसे अच्छा समाधान है क्योंकि यह लागत-प्रभावी और नियंत्रित है।

गोपनीयता

इंटरनेट के उदय के साथ, व्यक्तिगत जानकारी और अन्य निजी डेटा तक बढ़ी हुई पहुंच एक व्यापक रूप से मान्यता प्राप्त चिंता बन गई है। एक अध्ययन में पाया गया कि 80% अमेरिकी उपभोक्ता चिंतित हैं कि उनका डेटा AI मॉडल को प्रशिक्षित करने के लिए उपयोग किया जा रहा है। चूंकि सबसे प्रमुख LLM वेबसाइटों से सourced हैं, हमें यह विचार करना होगा कि यह गोपनीयता जोखिम कैसे प्रस्तुत करता है और यह LLM के लिए एक बड़ा हल नहीं है।

LLM से व्यक्तिगत जानकारी को वितरित करने से रोकने का सबसे सीधा तरीका यह है कि प्रशिक्षण डेटा से इसे हटा दिया जाए। हालांकि, LLM में शामिल डेटा की विशाल मात्रा को देखते हुए, यह गारंटी देना लगभग असंभव है कि सभी निजी जानकारी हटा दी गई है। एक अन्य सामान्य विकल्प बाहरी रूप से विकसित मॉडल के बजाय एक ओपन-सोर्स LLM चुनना है।

इस दृष्टिकोण के साथ, मॉडल की एक प्रति आंतरिक रूप से तैनात की जा सकती है। उपयोगकर्ताओं के प्रॉम्प्ट संगठन के नेटवर्क के भीतर सुरक्षित रहते हैं, तीसरे पक्ष की सेवाओं के संपर्क में आने के बजाय। जबकि यह संवेदनशील डेटा के रिसाव के जोखिम को काफी कम कर देता है, यह जटिलता भी जोड़ता है। निजी डेटा की पूर्ण सुरक्षा की गारंटी देने में कठिनाइयों को देखते हुए, यह अभी भी महत्वपूर्ण है कि अनुप्रयोग विकासकों को यह विचार करना चाहिए कि ये मॉडल उनके उपयोगकर्ताओं को कैसे जोखिम में डाल सकते हैं।

LLM के लिए अगली सीमा

जैसे ही हम LLM के विकास और तैनाती से जुड़े जोखिमों को कम करते हुए आगे बढ़ते हैं, हमें LLM एजेंटों के उदय की उम्मीद करनी चाहिए, जिन्हें हम पहले से ही कंपनियों जैसे H के साथ Runner H जैसे उत्पादों को जारी करना शुरू कर रहे हैं। शुद्ध भाषा मॉडल से एजेंटिक आर्किटेक्चर तक का परिवर्तन AI सिस्टम डिज़ाइन में एक परिवर्तन का प्रतिनिधित्व करता है; उद्योग छोटे चैट इंटरफेस और सरल रिट्रीवल-ऑगमेंटेड जेनरेशन की सीमाओं से आगे बढ़ रहा है। ये नए एजेंट फ्रेमवर्क में जटिल उद्देश्यों को परमाणु उप-कार्यों में विभाजित करने के लिए परिष्कृत योजना मॉड्यूल, संदर्भीय तर्क के लिए एपिसोडिक मेमोरी और स्पष्ट रूप से परिभाषित API के माध्यम से विशेषज्ञ उपकरणों का लाभ उठाने की क्षमता होगी। यह कार्य स्वचालन के लिए एक अधिक मजबूत दृष्टिकोण प्रदान करता है। आर्किटेक्चरल प्रगति पारंपरिक LLM कार्यान्वयन के भीतर कार्यों और तर्क, उपकरण एकीकरण और निष्पादन निगरानी के आसपास सामान्य चुनौतियों को कम करने में मदद करती है।

LLM के अलावा, छोटे भाषा मॉडल को प्रशिक्षित करने पर अधिक ध्यान केंद्रित किया जाएगा, जो उनकी लागत-प्रभावशीलता, पहुंच और तैनाती की आसानी के कारण है। उदाहरण के लिए, डोमेन-विशिष्ट भाषा मॉडल विशिष्ट उद्योगों या क्षेत्रों में विशेषज्ञता रखते हैं। ये मॉडल डोमेन-विशिष्ट डेटा और शब्दावली के साथ बारीकी से ट्यून किए जाते हैं, जो उन्हें जटिल और नियंत्रित वातावरण के लिए आदर्श बनाते हैं, जहां सटीकता आवश्यक है, जैसे कि चिकित्सा या कानूनी क्षेत्र। यह लक्षित दृष्टिकोण सामान्य-उद्देश्य मॉडल द्वारा उत्पन्न त्रुटियों और हॉलुसिनेशन की संभावना को कम करता है जब वे विशेषज्ञ सामग्री का सामना करते हैं।

जैसे ही हम LLM में नए क्षितिज का अन्वेषण करते हैं, यह आवश्यक है कि हम नवाचार की सीमाओं को आगे बढ़ाएं और संबंधित जोखिमों को संबोधित और कम करें। केवल तभी हम LLM के लिए एक अधिक मजबूत आधार बना सकते हैं जब हम पहले पक्षपात, हॉलुसिनेशन और गोपनीयता से संबंधित चुनौतियों की पहचान करें और उन्हें सक्रिय रूप से संबोधित करें।

рдЙрджрдп рдХрдорд╛рде Smarsh рдореЗрдВ рдЪреАрдл рдПрдирд╛рд▓рд┐рдЯрд┐рдХреНрд╕ рдСрдлрд┐рд╕рд░ рд╣реИрдВ, рдЬреЛ рд╕рдВрдЪрд╛рд░ рдбреЗрдЯрд╛ рдФрд░ рдЗрдВрдЯреЗрд▓рд┐рдЬреЗрдВрд╕ рдореЗрдВ рд╡реИрд╢реНрд╡рд┐рдХ рдиреЗрддрд╛ рд╣реИред рдЙрдирдХреА рднреВрдорд┐рдХрд╛ рдореЗрдВ рдХреЙрдиреНрд╡рд░реНрд╕реЗрд╢рдирд▓ рдПрдЖрдИ рдореЗрдВ рдбреЗрдЯрд╛ рд╕рд╛рдЗрдВрд╕ рдФрд░ рд╢реЛрдз рдХрд╛ рдиреЗрддреГрддреНрд╡ рдХрд░рдирд╛ рд╢рд╛рдорд┐рд▓ рд╣реИред 25 рд╡рд░реНрд╖реЛрдВ рд╕реЗ рдЕрдзрд┐рдХ рдХреЗ рд╡рд┐рд╢реНрд▓реЗрд╖рдгрд╛рддреНрдордХ рд╡рд┐рдХрд╛рд╕ рдХреЗ рдЕрдиреБрднрд╡ рдФрд░ рд╕реНрдХреЗрд▓реЗрдмрд▓ рдорд╢реАрди рд▓рд░реНрдирд┐рдВрдЧ рдореЗрдВ рдкреАрдПрдЪрдбреА рдХреЗ рд╕рд╛рде, рдХрдорд╛рде рдХреЗ рдорд╣рддреНрд╡рдкреВрд░реНрдг рдпреЛрдЧрджрд╛рди рдХрдИ рдкрддреНрд░рд┐рдХрд╛рдУрдВ, рд╕рдореНрдореЗрд▓рдиреЛрдВ, рдкреБрд╕реНрддрдХреЛрдВ рдФрд░ рдкреЗрдЯреЗрдВрдЯреЛрдВ рдореЗрдВ рдлреИрд▓реЗ рд╣реБрдП рд╣реИрдВред рд╡рд╣ рдлрд╛рд▓реНрдХреЛрдирд░реА рдЬреИрд╕реА рд╡реНрдпрд╛рд╡рд╕рд╛рдпрд┐рдХ рдХрдВрдкрдирд┐рдпреЛрдВ рдФрд░ рдЬреАрдПрдордпреВ рдореЗрдВ рд╣реНрдпреВрдорди-рдорд╢реАрди рдкрд╛рд░реНрдЯрдирд░рд╢рд┐рдк рд╕реЗрдВрдЯрд░ рдЬреИрд╕реЗ рд╢реИрдХреНрд╖рдгрд┐рдХ рд╕рдВрд╕реНрдерд╛рдиреЛрдВ рд╕рд╣рд┐рдд рд╕рдВрд╕реНрдерд╛рдУрдВ рдХреЗ рд▓рд┐рдП рд╕рд▓рд╛рд╣рдХрд╛рд░ рдмреЛрд░реНрдб рдХреЗ рдПрдХ рд╕рдХреНрд░рд┐рдп рд╕рджрд╕реНрдп рднреА рд╣реИрдВред