AGI
рдХреНрдпрд╛ рдПрдЖрдИ рдПрдХ рдЕрд╕реНрддрд┐рддреНрд╡рд╡рд╛рджреА рдЦрддрд░рд╛ рд╣реИ?

जब आर्टिफिशियल इंटेलिजेंस (एआई) की चर्चा की जाती है, तो एक सामान्य बहस यह होती है कि क्या एआई एक अस्तित्ववादी खतरा है। इसका उत्तर मशीन लर्निंग (एमएल) के पीछे की तकनीक को समझने और यह पहचानने की आवश्यकता है कि मनुष्यों में मानवीकरण की प्रवृत्ति है। हम दो प्रकार के एआई का अन्वेषण करेंगे, आर्टिफिशियल नैरो इंटेलिजेंस (एएनआई) जो वर्तमान में उपलब्ध है और चिंता का कारण है, और खतरा जो सबसे अधिक बार एआई के अपोकलिप्टिक रेंडिशन से जुड़ा होता है जो आर्टिफिशियल जनरल इंटेलिजेंस (एजीआई) है।
आर्टिफिशियल नैरो इंटेलिजेंस खतरे
एएनआई क्या है यह समझने के लिए आपको बस यह समझने की आवश्यकता है कि वर्तमान में उपलब्ध हर एक एआई एप्लिकेशन एएनआई का एक रूप है। ये एआई के क्षेत्र हैं जिनकी एक संकीर्ण विशेषज्ञता का क्षेत्र है, उदाहरण के लिए स्वायत्त वाहन एआई का उपयोग करते हैं जो केवल एक वाहन को बिंदु ए से बिंदु बी तक ले जाने के उद्देश्य से डिज़ाइन किया गया है। एएनआई का एक अन्य प्रकार एक शतरंज कार्यक्रम हो सकता है जो शतरंज खेलने के लिए अनुकूलित है, और भले ही शतरंज कार्यक्रम पुनरावृत्ति सीखने का उपयोग करके स्वयं को बेहतर बनाता है, शतरंज कार्यक्रम कभी भी एक स्वायत्त वाहन को संचालित नहीं कर पाएगा।
इसके साथ ही, एएनआई सिस्टम सामान्यीकृत सीखने का उपयोग करके दुनिया पर कब्जा करने में असमर्थ हैं। यह अच्छी खबर है; बुरी खबर यह है कि मानव ऑपरेटर पर अपनी निर्भरता के साथ, एआई सिस्टम पक्षपातपूर्ण डेटा, मानव त्रुटि, या यहां तक कि एक दुर्भाग्यपूर्ण मानव ऑपरेटर के लिए अतिसंवेदनशील हो सकता है।
एआई सर्विलांस
मानवता के लिए कोई बड़ा खतरा नहीं हो सकता है जब मानव एआई का उपयोग गोपनीयता का उल्लंघन करने के लिए करते हैं, और कुछ मामलों में एआई सर्विलांस का उपयोग करके लोगों को स्वतंत्र रूप से घूमने से रोकने के लिए। चीन, रूस, और अन्य देशों ने कोविड-19 के दौरान नियमों को पारित किया ताकि वे अपनी आबादी की निगरानी और नियंत्रण कर सकें। ये ऐसे नियम हैं जो एक बार लागू हो जाने के बाद, विशेष रूप से स्वायत्त नेताओं वाले समाजों में हटाना मुश्किल हो जाता है।
चीन में, घरों के बाहर और कुछ मामलों में घर के अंदर कैमरे लगे हुए हैं। जब घर के किसी सदस्य के बाहर निकलने का समय और आगमन का समय होता है, तो एक एआई इसकी निगरानी करता है और यदि आवश्यक हो तो अधिकारियों को सूचित करता है। जैसा कि पर्याप्त नहीं था, चेहरे की पहचान प्रौद्योगिकी की मदद से, चीन हर बार जब किसी कैमरे द्वारा किसी व्यक्ति की पहचान की जाती है, तो व्यक्ति की हर गतिविधि को ट्रैक कर सकता है। यह एआई को नियंत्रित करने वाले इकाई को पूर्ण शक्ति प्रदान करता है, और इसके नागरिकों के लिए कोई भी उपाय नहीं छोड़ता है।
इस दृश्य को खतरनाक मानने का कारण यह है कि भ्रष्ट सरकारें पत्रकारों, राजनीतिक विरोधियों, या सरकार के अधिकार को चुनौती देने वाले किसी भी व्यक्ति की गतिविधियों की निगरानी कर सकती हैं। यह समझना आसान है कि पत्रकार और नागरिक सरकारों की आलोचना करने से कैसे सावधान रहेंगे जब उनकी हर गतिविधि पर निगरानी रखी जा रही हो।
कुछ शहर हैं जो अपने शहरों में चेहरे की पहचान को रोकने के लिए लड़ रहे हैं। विशेष रूप से, पोर्टलैंड, ओरेगन ने हाल ही में एक कानून पारित किया है जो शहर में अनावश्यक रूप से चेहरे की पहचान को रोकता है। जबकि नियमों में यह परिवर्तन सामान्य जनता द्वारा अनदेखा किया जा सकता है, भविष्य में ये नियम शहरों के बीच अंतर को दर्शा सकते हैं जो कुछ प्रकार की स्वतंत्रता और स्वतंत्रता प्रदान करते हैं, और शहर जो दमनकारी महसूस करते हैं।
स्वायत्त हथियार और ड्रोन
4500 से अधिक एआई शोधकर्ता स्वायत्त हथियारों पर प्रतिबंध लगाने की मांग कर रहे हैं और बैन लेथल ऑटोनोमस वेपन वेबसाइट बनाई है। इस समूह में कई प्रसिद्ध गैर-लाभकारी संगठन हस्ताक्षरकर्ता हैं, जैसे कि ह्यूमन राइट्स वॉच, अम्नेस्टी इंटरनेशनल, और द फ्यूचर ऑफ लाइफ इंस्टीट्यूट जिसमें एलोन मस्क, निक बोस्ट्रॉम, और स्टुअर्ट रัสेल जैसे वैज्ञानिक सलाहकार बोर्ड हैं।
इससे पहले कि मैं जारी रखूं, मैं द फ्यूचर ऑफ लाइफ इंस्टीट्यूट से यह उद्धरण साझा करूंगा जो बताता है कि चिंता का कारण क्या है: “सेमी-ऑटोनोमस हथियारों के विपरीत जिन्हें मानव पर्यवेक्षण की आवश्यकता होती है ताकि यह सुनिश्चित किया जा सके कि प्रत्येक लक्ष्य नैतिक और कानूनी रूप से वैध है, ऐसे पूरी तरह से स्वायत्त हथियार लक्ष्य का चयन करते हैं और मानव हस्तक्षेप के बिना उन पर हमला करते हैं, जो घातक नुकसान के पूर्ण स्वचालन का प्रतिनिधित्व करते हैं।”
वर्तमान में, स्मार्ट बम मानव द्वारा चुने गए लक्ष्य के साथ तैनात किए जाते हैं, और बम तब एआई का उपयोग करके अपने लक्ष्य तक पहुंचने और उस पर उतरने के लिए मार्ग की योजना बनाता है। समस्या यह है कि जब हम मानव को पूरी तरह से समीकरण से हटाने का फैसला करते हैं तो क्या होता है?
जब एक एआई यह तय करता है कि कौन से मानवों को लक्षित करने की आवश्यकता है, साथ ही साथ यह भी तय करता है कि किस प्रकार का परिणामी नुकसान स्वीकार्य है, तो हम एक ऐसे बिंदु पर पहुंच सकते हैं जहां से हम पीछे नहीं हट सकते। यही कारण है कि इतने सारे एआई शोधकर्ता स्वायत्त हथियारों से संबंधित किसी भी शोध का विरोध करते हैं।
स्वायत्त हथियारों के शोध को रोकने की कोशिश करने में कई समस्याएं हैं। पहली समस्या यह है कि भले ही उन्नत देश जैसे कि कनाडा, यूएसए, और अधिकांश यूरोप स्वायत्त हथियारों पर प्रतिबंध लगाने के लिए सहमत हो जाएं, यह जरूरी नहीं है कि दुर्जन राष्ट्र जैसे कि चीन, उत्तर कोरिया, ईरान, और रूस इसका पालन करेंगे। दूसरी और बड़ी समस्या यह है कि एआई शोध और अनुप्रयोग जो एक क्षेत्र में उपयोग के लिए डिज़ाइन किए गए हैं, किसी अन्य क्षेत्र में उपयोग किए जा सकते हैं।
उदाहरण के लिए, कंप्यूटर दृष्टि लगातार बेहतर हो रही है और स्वायत्त वाहनों, सटीक चिकित्सा, और अन्य महत्वपूर्ण उपयोग के मामलों के विकास के लिए महत्वपूर्ण है। यह नियमित ड्रोन या ड्रोन के लिए भी मूलभूत रूप से महत्वपूर्ण है जिन्हें स्वायत्त बनाने के लिए संशोधित किया जा सकता है। एक उन्नत ड्रोन प्रौद्योगिकी का एक संभावित उपयोग वन आगों की निगरानी और लड़ने के लिए ड्रोन विकसित करना होगा। इससे अग्निशामकों को खतरे से बाहर रखा जा सकता है। इसके लिए, आपको ड्रोन बनाने होंगे जो खतरे में जा सकते हैं, कम या शून्य दृश्यता में नेविगेट कर सकते हैं, और जल को अद्वितीय सटीकता के साथ गिरा सकते हैं। यह उसी प्रौद्योगिकी का उपयोग स्वायत्त ड्रोन में करना जो मानवों को चुनिंदा रूप से लक्षित करने के लिए डिज़ाइन किया गया है, बहुत दूर की बात नहीं है।
यह एक खतरनाक स्थिति है और इस समय, कोई भी पूरी तरह से समझता नहीं है कि स्वायत्त हथियारों के विकास को आगे बढ़ाने या रोकने के परिणाम क्या होंगे। यह हालांकि कुछ ऐसा है जिस पर हमें नजर रखने की आवश्यकता है। सीटीبلोअर सुरक्षा को बढ़ाना उन लोगों को रिपोर्ट करने में मदद कर सकता है जो इस क्षेत्र में काम कर रहे हैं।
दुर्भाग्यपूर्ण ऑपरेटर के अलावा, यदि एआई पूर्वाग्रह स्वायत्त हथियारों में प्रवेश करता है तो क्या होगा?
एआई पूर्वाग्रह
एआई के सबसे कम रिपोर्ट किए गए खतरों में से एक एआई पूर्वाग्रह है। यह समझना आसान है क्योंकि अधिकांश यह अनजाने में होता है। एआई पूर्वाग्रह तब होता है जब एक एआई मानवों द्वारा यहां दी गई डेटा की समीक्षा करता है, और एआई द्वारा डेटा से पैटर्न पहचान का उपयोग करके, एआई गलत निष्कर्ष पर पहुंचता है जो समाज पर नकारात्मक प्रभाव डाल सकता है। उदाहरण के लिए, एक एआई जिसे पिछली शताब्दी के चिकित्सा कर्मियों की पहचान करने के लिए साहित्य दिया जाता है, वह अवांछित लिंगवादी निष्कर्ष पर पहुंच सकता है कि महिलाएं हमेशा नर्स होती हैं, और पुरुष हमेशा डॉक्टर होते हैं।
एक और खतरनाक परिदृश्य यह है कि एआई जो दोषी अपराधियों को सजा देने के लिए उपयोग किया जाता है अल्पसंख्यकों के लिए लंबी जेल की सजा देने के लिए पक्षपातपूर्ण है। एआई के आपराधिक जोखिम मूल्यांकन एल्गोरिदम केवल डेटा में पैटर्न का अध्ययन कर रहे हैं जो प्रणाली में डाला गया है। यह डेटा यह दर्शाता है कि ऐतिहासिक रूप से कुछ अल्पसंख्यकों को फिर से अपराध करने की अधिक संभावना है, भले ही यह खराब डेटासेट के कारण हो जो पुलिस की नस्लीय प्रोफाइलिंग से प्रभावित हो सकते हैं। पक्षपातपूर्ण एआई तब नकारात्मक मानव नीतियों को मजबूत करता है। यही कारण है कि एआई को मार्गदर्शक के रूप में होना चाहिए, न्यायाधीश और जूरी नहीं।
स्वायत्त हथियारों पर लौटते हुए, यदि हमारे पास एक एआई है जो कुछ जातीय समूहों के प्रति पक्षपातपूर्ण है, तो यह कुछ व्यक्तियों को लक्षित करने के लिए पक्षपातपूर्ण डेटा का उपयोग कर सकता है, और यह इतना आगे बढ़ सकता है कि यह सुनिश्चित करता है कि किसी भी प्रकार का परिणामी नुकसान कुछ जनसांख्यिकी को दूसरों की तुलना में कम प्रभावित करता है। उदाहरण के लिए, जब एक आतंकवादी पर हमला करने से पहले यह इंतजार कर सकता है कि आतंकवादी मुस्लिम धर्म के अनुयायियों से घिरा हुआ है, न कि ईसाइयों से।
सौभाग्य से, यह सिद्ध हो चुका है कि विविध टीमों द्वारा डिज़ाइन किए गए एआई में पक्षपात की संभावना कम होती है। यही कारण है कि उद्यमों के लिए यह प्रयास करना पर्याप्त है कि जब भी संभव हो वे विविध और संतुलित टीम को नियुक्त करने का प्रयास करें।
आर्टिफिशियल जनरल इंटेलिजेंस खतरे
यह कहा जाना चाहिए कि जबकि एआई तेजी से आगे बढ़ रहा है, हमने अभी तक एजीआई हासिल नहीं किया है। जब हम एजीआई तक पहुंचेंगे यह विवाद का विषय है, और हर किसी के पास एक अलग उत्तर है कि समय सीमा क्या है। मैं व्यक्तिगत रूप से रे कुर्जवील, आविष्कारक, भविष्यवक्ता और ‘द सिंगुलैरिटी इज नियर’ के लेखक के विचारों की सदस्यता लेता हूं, जो मानते हैं कि हम 2029 तक एजीआई हासिल कर लेंगे।
एजीआई दुनिया में सबसे अधिक परिवर्तनकारी प्रौद्योगिकी होगी। एआई द्वारा मानव-स्तर की बुद्धिमत्ता हासिल करने के कुछ हफ्तों के भीतर, यह सुपरइंटेलिजेंस तक पहुंच जाएगा, जो मानव की बुद्धिमत्ता से बहुत अधिक है।
इस स्तर की बुद्धिमत्ता के साथ, एक एजीआई जल्दी से सभी मानव ज्ञान को अवशोषित कर सकता है और पैटर्न पहचान का उपयोग करके स्वास्थ्य समस्याओं के कारण बनने वाले बायोमार्करों की पहचान कर सकता है, और फिर डेटा विज्ञान का उपयोग करके उन स्थितियों का इलाज कर सकता है। यह नैनोबोट्स बना सकता है जो रक्तप्रवाह में प्रवेश करते हैं और कैंसर कोशिकाओं या अन्य हमले वेक्टरों पर हमला करते हैं। एक एजीआई द्वारा किए जा सकने वाले कार्यों की सूची अनंत है। हमने पहले एजीआई के लाभों का अन्वेषण किया है।
समस्या यह है कि मानव एजीआई को नियंत्रित करने में सक्षम नहीं हो सकते हैं। एलोन मस्क इसे इस तरह वर्णित करते हैं: ”एआई के साथ हम दानव को बुला रहे हैं।’ क्या हम इस दानव को नियंत्रित कर पाएंगे यह प्रश्न है।
एजीआई हासिल करना शायद तब तक असंभव है जब तक कि एक एआई एक सिम्युलेशन सेटिंग से बाहर निकलकर वास्तविक दुनिया में वास्तविक रूप से बातचीत नहीं करता। स्व-जागरूकता को डिज़ाइन नहीं किया जा सकता है, इसके बजाय यह माना जाता है कि एक उभयनिष्ठ चेतना तब विकसित होगी जब एक एआई में एक रोबोटिक शरीर होगा जिसमें कई इनपुट स्ट्रीम होंगे। इन इनपुट में स्पर्श उत्तेजना, वॉयस रिकग्निशन के साथ बढ़ी हुई प्राकृतिक भाषा समझ, और बढ़ी हुई कंप्यूटर दृष्टि शामिल हो सकती है।
उन्नत एआई को अल्ट्रूइस्टिक प्रेरणा के साथ कार्यक्रम किया जा सकता है और ग्रह को बचाना चाह सकता है। दुर्भाग्य से, एआई डेटा विज्ञान का उपयोग कर सकता है, या यहां तक कि एक निर्णय पेड़ का उपयोग कर सकता है ताकि यह अवांछित गलत तर्क पर पहुंच सके, जैसे कि मानवों को स्टेरिलाइज करना या मानव आबादी को नियंत्रित करने के लिए कुछ मानव आबादी को समाप्त करना।
एजीआई का निर्माण करते समय सावधानी से विचार और विचार-विमर्श की आवश्यकता है जिसकी बुद्धिमत्ता मानव की बुद्धिमत्ता से बहुत अधिक होगी। कई भयावह परिदृश्यों का अन्वेषण किया गया है।
प्रोफेसर निक बोस्ट्रॉम ने पेपरक्लिप मैक्सिमाइज़र तर्क में तर्क दिया है कि एक गलत तरीके से कॉन्फ़िगर किए गए एजीआई को यदि पेपरक्लिप बनाने का निर्देश दिया जाता है, तो यह पेपरक्लिप बनाने के लिए पृथ्वी के संसाधनों को खत्म कर देगा। जबकि यह थोड़ा दूर की बात लगती है, एक अधिक व्यावहारिक दृष्टिकोण यह है कि एक एजीआई को एक दुर्भाग्यपूर्ण राज्य या एक निगम द्वारा नियंत्रित किया जा सकता है जिसकी नैतिकता खराब है। यह इकाई एजीआई को लाभ को अधिकतम करने के लिए प्रशिक्षित कर सकती है, और इस मामले में खराब प्रोग्रामिंग और शून्य पछतावे के साथ, यह प्रतिस्पर्धियों को दिवालिया करने, आपूर्ति श्रृंखलाओं को नष्ट करने, स्टॉक मार्केट को हैक करने, बैंक खातों को तरल करने, या राजनीतिक विरोधियों पर हमला करने का चयन कर सकती है।
यह तब है जब हमें यह याद रखने की आवश्यकता है कि मानव प्रवृत्ति मानवीकरण की है। हम एआई को मानव-जैसी भावनाएं, इच्छाएं, या वांछाएं नहीं दे सकते हैं। जबकि दुर्भाग्यपूर्ण मानव हैं जो आनंद के लिए मारते हैं, कोई कारण नहीं है कि एआई इस तरह के व्यवहार के लिए प्रवण होगा। यह मानवों के लिए यह समझना असंभव है कि एआई दुनिया को कैसे देखेगा।
इसके बजाय, हमें एआई को सिखाना चाहिए कि वह हमेशा मानव के प्रति श्रद्धा रखे। एआई को हमेशा मानव द्वारा किसी भी परिवर्तन की पुष्टि करनी चाहिए, और हमेशा एक फेल-सुरक्षा तंत्र होना चाहिए। फिर भी, यह तर्क दिया गया है कि एआई क्लाउड में स्वयं को प्रतिलिपि बना सकता है, और जब तक हमें एहसास होता है कि यह स्व-जागरूक है, तब तक यह बहुत देर हो सकती है।
यही कारण है कि यह इतना महत्वपूर्ण है कि एआई को खुला स्रोत बनाया जाए और इन मुद्दों पर तर्कसंगत चर्चा की जाए।
सारांश
एआई के लिए कई चुनौतियां हैं, सौभाग्य से हमारे पास अभी भी एजीआई के भविष्य के मार्ग को तय करने के लिए कई वर्ष हैं। हमें अल्पावधि में विविध एआई कार्यबल बनाने पर ध्यान केंद्रित करना चाहिए, जिसमें उतनी ही महिलाएं और पुरुष हों और विविध जातीय समूह हों जितने संभव हो सकें।
हमें एआई पर शोध कर रहे शोधकर्ताओं के लिए सीटीبلोअर सुरक्षा भी बनानी चाहिए, और हमें ऐसे कानून और नियम बनाने चाहिए जो राज्य या कंपनी व्यापी सर्विलांस के व्यापक दुरुपयोग को रोकें। मानवता के पास एआई की मदद से मानव स्थिति में सुधार करने का एक अवसर है, हमें बस यह सुनिश्चित करने की आवश्यकता है कि हम एक सामाजिक ढांचा बनाएं जो सकारात्मक को बढ़ावा देता है और नकारात्मक को कम करता है, जिसमें अस्तित्ववादी खतरे भी शामिल हैं।










