Connect with us

рд╣рдо рдЕрдм рдПрдЖрдИ рдХреЛ рд╕рдВрд░реЗрдЦрд┐рдд рдирд╣реАрдВ рдХрд░ рд░рд╣реЗ рд╣реИрдВред рд╣рдо рд╕рднреНрдпрддрд╛рдУрдВ рдХреЛ рд╕рдВрд░реЗрдЦрд┐рдд рдХрд░ рд░рд╣реЗ рд╣реИрдВред

рдХреГрддреНрд░рд┐рдо рдмреБрджреНрдзрд┐рдорддреНрддрд╛

рд╣рдо рдЕрдм рдПрдЖрдИ рдХреЛ рд╕рдВрд░реЗрдЦрд┐рдд рдирд╣реАрдВ рдХрд░ рд░рд╣реЗ рд╣реИрдВред рд╣рдо рд╕рднреНрдпрддрд╛рдУрдВ рдХреЛ рд╕рдВрд░реЗрдЦрд┐рдд рдХрд░ рд░рд╣реЗ рд╣реИрдВред

mm

कई वर्षों से, कृत्रिम बुद्धिमत्ता (एआई) में मुख्य प्रश्न यह था कि एआई मॉडलों को मानव मूल्यों के साथ कैसे संरेखित किया जाए। शोधकर्ताओं ने सुरक्षा नियमों, नैतिक सिद्धांतों और नियंत्रण तंत्र को परिभाषित करने का प्रयास किया जो एआई निर्णयों को मार्गदर्शन प्रदान करते हैं। इस काम ने महत्वपूर्ण प्रगति हासिल की। लेकिन अब, जब ये एआई सिस्टम अधिक सक्षम और व्यापक होते जा रहे हैं, तो संरेखण का फोकस बदलना शुरू हो रहा है। जो एक एकल मॉडल को एक एकल सेट ऑफ निर्देशों के साथ संरेखित करने की चुनौती के रूप में शुरू हुआ था, अब यह पूरी सभ्यताओं को संरेखित करने की बहुत बड़ी चुनौती बन गया है जो वैश्विक स्तर पर इन सिस्टमों का उपयोग करते हैं। एआई अब केवल एक उपकरण नहीं है। यह एक वातावरण में विकसित हो रहा है जहां समाज काम करते हैं, संवाद करते हैं, बातचीत करते हैं और प्रतिस्पर्धा करते हैं। इसके परिणामस्वरूप, संरेखण अब एक तकनीकी समस्या नहीं रह जाती है। यह एक सभ्यतागत समस्या बन गई है। इस लेख में, मैं बताता हूं कि संरेखण अब केवल मॉडलों के बारे में क्यों नहीं है और हमें सभ्यताओं के संदर्भ में सोचना शुरू क्यों करना चाहिए। मैं यह भी चर्चा करता हूं कि यह परिवर्तन हमारी जिम्मेदारियों को कैसे प्रभावित करता है और इसका वैश्विक सहयोग के लिए क्या अर्थ है।

एआई वास्तव में किसके मूल्यों का प्रतिनिधित्व करता है?

यदि आप एक एआई से एक संवेदनशील ऐतिहासिक घटना के बारे में पूछते हैं, तो इसका उत्तर उस डेटा पर निर्भर करता है जिसे उसने अध्ययन किया है। यदि वह डेटा मुख्य रूप से पश्चिमी इंटरनेट से आता है, तो उत्तर में पश्चिमी पूर्वाग्रह होगा। यह व्यक्तिवाद, खुले भाषण और लोकतांत्रिक आदर्शों को प्राथमिकता देगा। ये कई लोगों के लिए अच्छे मूल्य हैं। लेकिन वे दुनिया में एकमात्र मूल्य नहीं हैं।
सिंगापुर में एक उपयोगकर्ता, रियाद में एक उपयोगकर्ता और सैन फ्रांसिस्को में एक उपयोगकर्ता के पास “मददगार” और “हानिकारक” की अलग-अलग परिभाषाएं होती हैं। कुछ संस्कृतियों में, सामाजिक सामंजस्य बातचीत की पूर्ण स्वतंत्रता से अधिक महत्वपूर्ण है। अन्य में, पदानुक्रम के प्रति सम्मान विकृति से अधिक महत्वपूर्ण है।
जब एक सिलिकॉन वैली कंपनी “रिनफोर्समेंट लर्निंग फ्रॉम ह्यूमन फीडबैक” (आरएलएचएफ) का उपयोग करती है, तो वे एआई के उत्तरों को रेट करने के लिए मानवों को नियुक्त करते हैं। लेकिन वे मानव कौन हैं? उनके विश्वास क्या हैं? यदि वे मॉडल को अमेरिकी मानकों के साथ संरेखित करते हैं, तो वे अनजाने में एक अमेरिकी सांस्कृतिक निर्यात बना रहे हैं। वे एक डिजिटल राजनयिक बना रहे हैं जो दुनिया के बाकी हिस्सों पर एक विशिष्ट सभ्यता के नियमों को लागू करता है।

फीडबैक लूप्स का उदय

चुनौती यह नहीं है कि एआई एक संस्कृति के विश्वासों को प्रतिबिंबित करता है। यह उन विश्वासों को कैसे बदल सकता है। आधुनिक एआई सिस्टम व्यक्तियों, संगठनों और यहां तक कि राष्ट्रों के व्यवहार को आकार देने की क्षमता रखते हैं। वे प्रभावित कर सकते हैं कि हम कैसे सोचते हैं, काम करते हैं, विश्वास करते हैं और प्रतिस्पर्धा करते हैं। यह एआई सिस्टम और मानव समाज के बीच फीडबैक लूप बनाता है; हम एआई को प्रशिक्षित करते हैं और एआई हमारी सोच और कार्यों को आकार देता है। ये लूप एआई अधिक व्यापक होते जाने के साथ मजबूत होते जा रहे हैं। यह देखने के लिए कि यह फीडबैक लूप कैसे काम करता है, यहां दो उदाहरण हैं:

  • बड़े पैमाने पर एआई तैनाती सामाजिक व्यवहार को बदलती है, और सामाजिक व्यवहार नए सिस्टम को प्रशिक्षित करने वाले डेटा को बदलता है। उदाहरण के लिए, एक सिफारिश एल्गोरिदम यह आकार दे सकता है कि लोग क्या देखते हैं, पढ़ते हैं और मानते हैं। उत्पादकता टूल टीमों को यह आकार देने में मदद करता है कि वे कैसे सहयोग करते हैं और छात्र कैसे सीखते हैं। यह व्यवहार में बदलाव डेटा पैटर्न को बदलता है जैसे कि अलग-अलग देखने की आदतें, कार्यस्थल संचार पैटर्न या लेखन शैली। जब यह डेटा भविष्य के प्रशिक्षण डेटासेट में प्रवाहित होता है, तो मॉडल अपने अनुमानों और आउटपुट को तदनुसार समायोजित करते हैं। मानव व्यवहार मॉडल को आकार देता है, और मॉडल, बदले में, मानव व्यवहार को आकार देता है।
  • स्वचालित निर्णय उपकरण सार्वजनिक नीति को प्रभावित करते हैं, और सार्वजनिक नीति भविष्य के मॉडल प्रशिक्षण को प्रभावित करती है। उदाहरण के लिए, कई सरकारें अब संसाधनों को आवंटित करने के लिए एआई का उपयोग करती हैं जैसे कि यह पहचानना कि कौन से पड़ोस अधिक स्वास्थ्य देखभाल समर्थन की आवश्यकता है या कौन से क्षेत्र उच्च अपराध जोखिम देख सकते हैं। जब नीति निर्माता इन सिफारिशों पर कार्रवाई करते हैं, तो उन निर्णयों के परिणाम बाद में नए डेटासेट का हिस्सा बन जाते हैं। समय के साथ, एआई द्वारा आकार दिए गए नीति निर्णय एआई के अगले поколे के मॉडलों को आकार देने लगते हैं।

एक बार जब आप इस फीडबैक लूप को पहचान लेते हैं, तो यह स्पष्ट हो जाता है कि एआई धीरे-धीरे सभ्यताओं को संरेखित कर रहा है। इसके परिणामस्वरूप, राष्ट्र यह पूछना शुरू कर रहे हैं: वे अपने मूल्यों की रक्षा कैसे कर सकते हैं जबकि वे अपने समाजों और संस्थानों में एआई को एकीकृत करते हैं?

संप्रभु एआई का उदय

यह संरेखण चुनौती ने विश्वभर की सरकारों से महत्वपूर्ण प्रतिक्रिया को प्रेरित किया है। राष्ट्रों ने महसूस किया है कि आयातित एआई पर निर्भर रहना उनकी संप्रभुता के लिए जोखिम है। वे अपने नागरिकों को एक ब्लैक बॉक्स द्वारा शिक्षित, सूचित और सलाह दिए जाने का जोखिम नहीं उठा सकते जो एक विदेशी की तरह सोचता है।
इस महसूस के परिणामस्वरूप “संप्रभु एआई” का उदय हुआ है। फ्रांस “भारी निवेश” कर रहा है ताकि फ्रेंच और फ्रेंच कानून और संस्कृति को समझने वाले मॉडल बनाए जा सकें। भारत “स्वदेशी एआई मॉडल” बना रहा है ताकि उनके सांस्कृतिक मूल्यों को सुनिश्चित किया जा सके। संयुक्त अरब अमीरात और चीन अपने राष्ट्रीय दृष्टिकोण के साथ संरेखित एआई मॉडल बना रहे हैं।
यह एक नए प्रकार की हथियारों की दौड़ है। यह एक कथा नियंत्रण की दौड़ है। एक सभ्यता जिसके पास अपना एआई नहीं है, अंततः अपनी स्मृति खो देगी। यदि आपके बच्चे एक मशीन से प्रश्न पूछते हैं और मशीन का उत्तर एक अलग संस्कृति के तर्क के साथ होता है, तो आपकी संस्कृति धीरे-धीरे क्षय होने लगती है। यह महसूस, हालांकि, विभिन्न डिजिटल ब्लॉकों के गठन की ओर ले जा सकता है। हम एक पश्चिमी एआई, एक चीनी एआई, एक भारतीय एआई और इसी तरह के सिस्टम के साथ समाप्त हो सकते हैं। ये सिस्टम विभिन्न तथ्यों और नैतिक दिशानिर्देशों के साथ काम करेंगे। इन विकासों से यह स्पष्ट हो जाता है कि यदि हम एक एकल, वास्तव में संरेखित एआई मॉडल बनाना चाहते हैं, तो हमें पहले सभ्यताओं को संरेखित करने का तरीका खोजना होगा।

डिप्लोमैटिक एआई की आवश्यकता

पारंपरिक संरेखण यह मानता है कि एक मॉडल को सावधानी से प्रशिक्षण, प्रॉम्प्टिंग और गार्डरेल द्वारा संरेखित किया जा सकता है। यह सोच शुरुआती एआई सुरक्षा अनुसंधान के तकनीकी दृष्टिकोण से आती है। लेकिन यहां तक कि पूर्ण मॉडल-स्तर का संरेखण भी सभ्यताओं को संरेखित करने की चुनौतियों का समाधान नहीं कर सकता है। संरेखण तब अस्थिर नहीं रह सकता जब समाज विपरीत दिशाओं में खींचतान करते हैं। यदि देश, कंपनियां और समुदाय विरोधाभासी लक्ष्य रखते हैं, तो वे एआई सिस्टम को उन संघर्षों को प्रतिबिंबित करने के लिए धक्का देंगे। ये सीमाएं दिखाती हैं कि संरेखण केवल एक तकनीकी समस्या नहीं है। यह एक शासन, सांस्कृतिक और समन्वय समस्या है। और इन समस्याओं के लिए न केवल विशेषज्ञों या डेवलपर्स की आवश्यकता होती है। इसमें पूरी सभ्यताएं शामिल हैं।
तो हम आगे कैसे बढ़ते हैं? यदि हम स्वीकार करते हैं कि सार्वभौमिक संरेखण असंभव है, तो हमें अपनी रणनीति बदलनी होगी। हमें एक दार्शनिक समस्या के लिए एक तकनीकी समाधान की तलाश बंद करनी होगी। हमें राजनयिकों की तरह सोचना शुरू करना होगा। हमें “सिविलाइजेशनल अलाइनमेंट” के लिए प्रोटोकॉल बनाने की आवश्यकता है। हमें यह पता लगाना होगा कि एआई कैसे एक समाज के विश्वासों और मूल्यों का सम्मान कर सकता है बिना उस पर दूसरी संस्कृतियों के विश्वासों को थोपे। दूसरे शब्दों में, हमें अपने एल्गोरिदम के लिए एक डिजिटल संयुक्त राष्ट्र की आवश्यकता है।
इसके लिए पारदर्शिता की आवश्यकता है। वर्तमान में, हम वास्तव में नहीं जानते कि गहरे न्यूरल नेटवर्क की परतों में कौन से मूल्य छिपे हैं। हम केवल आउटपुट देखते हैं। सभ्यताओं को संरेखित करने के लिए, हमें प्रत्येक मॉडल के “संविधान” के बारे में स्पष्ट होना चाहिए। एक मॉडल को अपना पूर्वाग्रह घोषित करने में सक्षम होना चाहिए। यह कहने में सक्षम होना चाहिए, “मैं इस डेटा पर प्रशिक्षित किया गया है, इन सुरक्षा नियमों के साथ, इन मूल्यों को प्राथमिकता देते हुए।” केवल जब पूर्वाग्रह दिखाई दे तब हम सिस्टम पर विश्वास कर सकते हैं। एक उपयोगकर्ता को दृष्टिकोण के बीच स्विच करने में सक्षम होना चाहिए। आपको एक प्रश्न पूछने और देखने में सक्षम होना चाहिए कि एक “पश्चिमी” मॉडल कैसे उत्तर देता है बनाम एक “पूर्वी” मॉडल कैसे उत्तर देता है। यह एआई को एक उपकरण बना देगा जो समझने के लिए है, न कि एक उपकरण जो मस्तिष्क को धो देता है।

नीचे की रेखा

हमने टर्मिनेटर के बारे में चिंता करने में बहुत समय बिताया है। असली जोखिम यह नहीं है कि एक रोबोट हमें नष्ट कर देता है। असली जोखिम यह है कि एक रोबोट हमें यह भूलने पर मजबूर करता है कि हम कौन हैं। संरेखण एक कोड नहीं है जिसे हम एक बार लिख सकते हैं और भूल सकते हैं। यह एआई मॉडल के साथ हमारे मूल्यों और मूल्यों के साथ संरेखित करने के लिए एक निरंतर बातचीत है। यह एक राजनीतिक कार्य है। जब हम बुद्धिमत्ता के इस नए युग में आगे बढ़ते हैं, तो हमें स्क्रीन के परे देखना होगा। हमें यह विचार करना होगा कि एआई हमारे इतिहास, हमारी सीमाओं और हमारे विश्वासों को कैसे व्याख्या करता है। हम उन दिमागों का निर्माण कर रहे हैं जो हमें दुनिया चलाने में मदद करेंगे। हमें सुनिश्चित करना होगा कि वे दिमाग सभ्यताओं के बीच के अंतरों का सम्मान करते हैं।

рдбреЙ. рддрд╣рд╕реАрди рдЬрд╝рд┐рдпрд╛ рдХреЛрдореНрд╕реИрдЯреНрд╕ рдпреВрдирд┐рд╡рд░реНрд╕рд┐рдЯреА рдЗрд╕реНрд▓рд╛рдорд╛рдмрд╛рдж рдореЗрдВ рдПрдХ рдЯреЗрдиреНрдпреЛрд░реНрдб рдПрд╕реЛрд╕рд┐рдПрдЯ рдкреНрд░реЛрдлреЗрд╕рд░ рд╣реИрдВ, рдЬреЛ рдСрд╕реНрдЯреНрд░рд┐рдпрд╛ рдХреА рд╡рд┐рдпрдирд╛ рдЯреЗрдХреНрдиреЛрд▓реЙрдЬреА рдпреВрдирд┐рд╡рд░реНрд╕рд┐рдЯреА рд╕реЗ рдПрдЖрдИ рдореЗрдВ рдкреАрдПрдЪрдбреА рд░рдЦрддреЗ рд╣реИрдВред рдЖрд░реНрдЯрд┐рдлрд┐рд╢рд┐рдпрд▓ рдЗрдВрдЯреЗрд▓рд┐рдЬреЗрдВрд╕, рдорд╢реАрди рд▓рд░реНрдирд┐рдВрдЧ, рдбреЗрдЯрд╛ рд╕рд╛рдЗрдВрд╕ рдФрд░ рдХрдВрдкреНрдпреВрдЯрд░ рд╡рд┐рдЬрди рдореЗрдВ рд╡рд┐рд╢реЗрд╖рдЬреНрдЮрддрд╛, рдЙрдиреНрд╣реЛрдВрдиреЗ рдкреНрд░рддрд┐рд╖реНрдард┐рдд рд╡реИрдЬреНрдЮрд╛рдирд┐рдХ рдкрддреНрд░рд┐рдХрд╛рдУрдВ рдореЗрдВ рдкреНрд░рдХрд╛рд╢рди рдХреЗ рд╕рд╛рде рдорд╣рддреНрд╡рдкреВрд░реНрдг рдпреЛрдЧрджрд╛рди рджрд┐рдпрд╛ рд╣реИред рдбреЙ. рддрд╣рд╕реАрди рдиреЗ рдкреНрд░рд┐рдВрд╕рд┐рдкрд▓ рдЗрдиреНрд╡реЗрд╕реНрдЯрд┐рдЧреЗрдЯрд░ рдХреЗ рд░реВрдк рдореЗрдВ рд╡рд┐рднрд┐рдиреНрди рдФрджреНрдпреЛрдЧрд┐рдХ рдкрд░рд┐рдпреЛрдЬрдирд╛рдУрдВ рдХрд╛ рдиреЗрддреГрддреНрд╡ рдХрд┐рдпрд╛ рд╣реИ рдФрд░ рдПрдХ рдПрдЖрдИ рд╕рд▓рд╛рд╣рдХрд╛рд░ рдХреЗ рд░реВрдк рдореЗрдВ рдХрд╛рд░реНрдп рдХрд┐рдпрд╛ рд╣реИред