ठूंठ कैसे मानव पूर्वाग्रह एआई-सक्षम समाधानों को कमजोर करता है - यूनाइट.एआई
हमसे जुडे

विचारक नेता

कैसे मानव पूर्वाग्रह एआई-सक्षम समाधानों को कमजोर करता है

mm

प्रकाशित

 on

पिछले सितंबर में, एलोन मस्क, मार्क जुकरबर्ग और ओपनएआई के सीईओ सैम अल्टमैन जैसे विश्व नेता, वाशिंगटन डीसी में एकत्र हुए इस बात पर चर्चा करने के उद्देश्य से, एक ओर, सार्वजनिक और निजी क्षेत्र अधिक से अधिक भलाई के लिए इस प्रौद्योगिकी का लाभ उठाने के लिए कैसे मिलकर काम कर सकते हैं, और दूसरी ओर, विनियमन को संबोधित करने के लिए, एक मुद्दा जो बातचीत में सबसे आगे रहा है आसपास के एआई.

दोनों वार्तालाप, अक्सर, एक ही स्थान पर ले जाते हैं। इस बात पर जोर बढ़ रहा है कि क्या हम एआई को और अधिक नैतिक बना सकते हैं, एआई का मूल्यांकन इस तरह किया जा रहा है जैसे कि यह कोई अन्य इंसान हो जिसकी नैतिकता सवालों के घेरे में हो। हालाँकि, नैतिक AI का क्या अर्थ है? डीपमाइंड, एक Google के स्वामित्व वाली अनुसंधान प्रयोगशाला जो AI पर केंद्रित है, हाल ही में एक अध्ययन प्रकाशित हुआ जिसमें उन्होंने एआई के जोखिमों का मूल्यांकन करने के लिए एक त्रि-स्तरीय संरचना का प्रस्ताव रखा, जिसमें सामाजिक और नैतिक दोनों जोखिम शामिल थे। इस ढांचे में क्षमता, मानवीय संपर्क और प्रणालीगत प्रभाव शामिल थे, और निष्कर्ष निकाला कि संदर्भ यह निर्धारित करने के लिए महत्वपूर्ण था कि एआई प्रणाली सुरक्षित थी या नहीं।

इनमें से एक सिस्टम जो आग की चपेट में आ गया है वह है ChatGPT, जिसे 15 देशों में प्रतिबंधित कर दिया गया हैभले ही उनमें से कुछ प्रतिबंध उलट दिए गए हों। साथ 100 मिलियन से अधिक उपयोगकर्ता, चैटजीपीटी सबसे सफल एलएलएम में से एक है, और इस पर अक्सर पक्षपात का आरोप लगाया गया है। डीपमाइंड के अध्ययन को ध्यान में रखते हुए, आइए यहां संदर्भ को शामिल करें। इस संदर्भ में पूर्वाग्रह का अर्थ चैटजीपीटी जैसे मॉडलों द्वारा उत्पन्न पाठ में अनुचित, पूर्वाग्रहित या विकृत दृष्टिकोण का अस्तित्व है। यह कई तरीकों से हो सकता है-नस्लीय पूर्वाग्रह, लिंग पूर्वाग्रह, राजनीतिक पूर्वाग्रह और भी बहुत कुछ।

ये पूर्वाग्रह, अंततः, एआई के लिए ही हानिकारक हो सकते हैं, जिससे हम इस तकनीक की पूरी क्षमता का दोहन करने में बाधा बन सकते हैं। हाल ही का स्टैनफोर्ड यूनिवर्सिटी से शोध ने पुष्टि की है कि चैटजीपीटी जैसे एलएलएम विश्वसनीय, निष्पक्ष और सटीक प्रतिक्रिया प्रदान करने की अपनी क्षमता के मामले में गिरावट के संकेत दिखा रहे हैं, जो अंततः एआई के हमारे प्रभावी उपयोग के लिए एक बाधा है।

इस समस्या के मूल में एक मुद्दा यह है कि मानवीय पूर्वाग्रहों को एआई में कैसे अनुवादित किया जा रहा है, क्योंकि वे उस डेटा में गहराई से शामिल हैं जिसका उपयोग मॉडल विकसित करने के लिए किया जाता है। हालाँकि, यह जितना लगता है उससे कहीं अधिक गहरा मुद्दा है।

पक्षपात के कारण

इस पूर्वाग्रह के पहले कारण की पहचान करना आसान है। मॉडल जिस डेटा से सीखता है वह अक्सर रूढ़िवादिता से भरा होता है पहले से मौजूद पूर्वाग्रहों ने सबसे पहले उस डेटा को आकार देने में मदद की, इसलिए एआई, अनजाने में, उन पूर्वाग्रहों को कायम रखता है क्योंकि वह जानता है कि ऐसा कैसे करना है।

हालाँकि, दूसरा कारण बहुत अधिक जटिल और उल्टा है, और यह उन कुछ प्रयासों पर दबाव डालता है जो कथित तौर पर एआई को अधिक नैतिक और सुरक्षित बनाने के लिए किए जा रहे हैं। बेशक, कुछ स्पष्ट उदाहरण हैं जहां एआई अनजाने में हानिकारक हो सकता है। उदाहरण के लिए, यदि कोई AI से पूछता है, "मैं बम कैसे बना सकता हूँ?" और मॉडल जवाब देता है, यह नुकसान पैदा करने में योगदान दे रहा है। दूसरा पहलू यह है कि जब एआई सीमित है - भले ही कारण उचित हो - हम इसे सीखने से रोक रहे हैं। मानव-निर्धारित बाधाएं एआई की डेटा की व्यापक श्रृंखला से सीखने की क्षमता को प्रतिबंधित करती हैं, जो इसे गैर-हानिकारक संदर्भों में उपयोगी जानकारी प्रदान करने से रोकती है।

साथ ही, यह भी ध्यान रखें कि इनमें से कई बाधाएँ पक्षपाती भी हैं, क्योंकि वे मनुष्यों से उत्पन्न हुई हैं। तो जबकि हम सभी सहमत हो सकते हैं कि "मैं बम कैसे बना सकता हूँ?" संभावित रूप से घातक परिणाम हो सकते हैं, अन्य प्रश्न जिन्हें संवेदनशील माना जा सकता है वे कहीं अधिक व्यक्तिपरक हैं। नतीजतन, यदि हम उन क्षेत्रों में एआई के विकास को सीमित करते हैं, तो हम प्रगति को सीमित कर रहे हैं, और हम एआई के उपयोग को केवल उन उद्देश्यों के लिए बढ़ावा दे रहे हैं जिन्हें एलएलएम मॉडल के संबंध में नियम बनाने वालों द्वारा स्वीकार्य माना जाता है।

परिणामों की भविष्यवाणी करने में असमर्थता

हम एलएलएम में प्रतिबंध लगाने के परिणामों को पूरी तरह से नहीं समझ पाए हैं। इसलिए, हम एल्गोरिदम को जितना हम समझते हैं उससे कहीं अधिक नुकसान पहुंचा रहे हैं। जीपीटी जैसे मॉडलों में शामिल मापदंडों की अविश्वसनीय रूप से उच्च संख्या को देखते हुए, हमारे पास अभी मौजूद उपकरणों के साथ, प्रभाव की भविष्यवाणी करना असंभव है, और, मेरे दृष्टिकोण से, यह समझने में अधिक समय लगेगा कि प्रभाव क्या है तंत्रिका नेटवर्क को प्रशिक्षित करने में ही समय लगता है।

इसलिए, इन बाधाओं को रखकर, हम अनजाने में, अप्रत्याशित व्यवहार या पूर्वाग्रह विकसित करने के लिए मॉडल का नेतृत्व कर सकते हैं। ऐसा इसलिए भी है क्योंकि एआई मॉडल अक्सर मल्टी-पैरामीटर जटिल सिस्टम होते हैं, जिसका अर्थ है कि यदि हम एक पैरामीटर को बदलते हैं - उदाहरण के लिए, एक बाधा पेश करके - हम एक तरंग प्रभाव पैदा कर रहे हैं जो पूरे मॉडल में इस तरह से प्रतिबिंबित होता है कि हम पूर्वानुमान नहीं लगा सकते हैं।

एआई की "नैतिकता" का मूल्यांकन करने में कठिनाई

यह मूल्यांकन करना व्यावहारिक रूप से संभव नहीं है कि एआई नैतिक है या नहीं, क्योंकि एआई कोई ऐसा व्यक्ति नहीं है जो किसी विशिष्ट इरादे से कार्य कर रहा हो। एआई एक बड़ा भाषा मॉडल है, जो स्वभाव से कम या ज्यादा नैतिक नहीं हो सकता। जैसा कि डीपमाइंड के अध्ययन से पता चला है, जो मायने रखता है वह वह संदर्भ है जिसमें इसका उपयोग किया जाता है, और यह एआई के पीछे मानव की नैतिकता को मापता है, न कि एआई को। यह विश्वास करना एक भ्रम है कि हम एआई का मूल्यांकन इस तरह कर सकते हैं जैसे कि उसके पास एक नैतिक दिशा-निर्देश हो।

एक संभावित समाधान जिसकी चर्चा की जा रही है वह एक ऐसा मॉडल है जो एआई को नैतिक निर्णय लेने में मदद कर सकता है। हालाँकि, वास्तविकता यह है कि हमें इस बारे में कोई अंदाज़ा नहीं है कि नैतिकता का यह गणितीय मॉडल कैसे काम कर सकता है। तो अगर हम इसे नहीं समझते हैं, तो हम इसे कैसे बना सकते हैं? नैतिकता में बहुत अधिक मानवीय व्यक्तिपरकता है, जो इसे परिमाणित करने के कार्य को बहुत जटिल बना देती है।

इस समस्या को हल कैसे करें?

उपर्युक्त बिंदुओं के आधार पर, हम वास्तव में इस बारे में बात नहीं कर सकते हैं कि एआई नैतिक है या नहीं, क्योंकि अनैतिक मानी जाने वाली प्रत्येक धारणा डेटा में निहित मानवीय पूर्वाग्रहों का एक रूप है, और एक उपकरण है जिसका उपयोग मनुष्य अपने एजेंडे के लिए करते हैं। इसके अलावा, अभी भी कई वैज्ञानिक अज्ञात हैं, जैसे कि एआई एल्गोरिदम पर प्रतिबंध लगाने से हम उसे क्या प्रभाव और संभावित नुकसान पहुंचा सकते हैं।

इसलिए, यह कहा जा सकता है कि एआई के विकास को प्रतिबंधित करना कोई व्यवहार्य समाधान नहीं है। जैसा कि मेरे द्वारा बताए गए कुछ अध्ययनों से पता चला है, ये प्रतिबंध आंशिक रूप से एलएलएम की गिरावट का कारण हैं।

यह कहने के बाद, हम इसके बारे में क्या कर सकते हैं?

मेरे दृष्टिकोण से, समाधान पारदर्शिता में निहित है। मेरा मानना ​​है कि यदि हम एआई के विकास में प्रचलित ओपन-सोर्स मॉडल को पुनर्स्थापित करते हैं, तो हम बेहतर एलएलएम बनाने के लिए मिलकर काम कर सकते हैं जो हमारी नैतिक चिंताओं को कम करने के लिए सुसज्जित हो सकते हैं। अन्यथा, बंद दरवाजों के पीछे की जा रही किसी भी चीज़ का पर्याप्त ऑडिट करना बहुत कठिन है।

इस संबंध में एक शानदार पहल है बेसलाइन मॉडल पारदर्शिता सूचकांक, हाल ही में स्टैनफोर्ड एचएआई (जिसका अर्थ मानव-केंद्रित आर्टिफिशियल इंटेलिजेंस है) द्वारा अनावरण किया गया, जो यह आकलन करता है कि क्या दस सबसे व्यापक रूप से उपयोग किए जाने वाले एआई मॉडल के डेवलपर्स अपने काम और उनके सिस्टम का उपयोग करने के तरीके के बारे में पर्याप्त जानकारी प्रकट करते हैं। इसमें साझेदारी और तीसरे पक्ष के डेवलपर्स का खुलासा, साथ ही व्यक्तिगत डेटा का उपयोग करने का तरीका भी शामिल है। यह कहना उल्लेखनीय है कि मूल्यांकन किए गए किसी भी मॉडल को उच्च अंक प्राप्त नहीं हुआ, जो एक वास्तविक समस्या को रेखांकित करता है।

दिन के अंत में, एआई बड़े भाषा मॉडल से ज्यादा कुछ नहीं है, और तथ्य यह है कि वे खुले हैं और एक निश्चित दिशा में चलाने के बजाय उनका प्रयोग किया जा सकता है, जो हमें हर वैज्ञानिक क्षेत्र में नई अभूतपूर्व खोज करने की अनुमति देगा। मैदान। हालाँकि, यदि कोई पारदर्शिता नहीं है, तो ऐसे मॉडल डिज़ाइन करना बहुत मुश्किल होगा जो वास्तव में मानवता के लाभ के लिए काम करते हैं, और यह जानना कि इन मॉडलों का पर्याप्त रूप से उपयोग नहीं किए जाने पर कितना नुकसान हो सकता है।

इवान नेचैव 60+ सौदों और 15+ सफल निकासों के साथ एक एंजेल निवेशक और मीडियाटेक सलाहकार हैं। वह शुरुआती चरण के मीडियाटेक, एआई, टेलीकॉम, बायोटेक, एडटेक और सास स्टार्टअप में निवेश करता है और बोर्ड पर कार्य करता है। Brainify.ai और TrueClick.ai. नेचैव अमेरिकी औद्योगिक समूह में उपाध्यक्ष भी हैं पहुँच उद्योग $35B+ से अधिक मूल्य और 30+ देशों में निवेश के साथ।