ठूंठ क्या AI अस्तित्व के लिए ख़तरा है? - यूनाइट.एआई
हमसे जुडे

आर्टिफिशियल जनरल इंटेलिजेंस

क्या AI अस्तित्व के लिए ख़तरा है?

mm
Updated on

आर्टिफिशियल इंटेलिजेंस (एआई) पर चर्चा करते समय, एक आम बहस यह होती है कि क्या एआई एक अस्तित्वगत खतरा है। उत्तर के लिए मशीन लर्निंग (एमएल) के पीछे की तकनीक को समझने और यह पहचानने की आवश्यकता है कि मनुष्यों में मानवरूपीकरण की प्रवृत्ति होती है। हम दो अलग-अलग प्रकार के एआई का पता लगाएंगे, आर्टिफिशियल नैरो इंटेलिजेंस (एएनआई) जो अभी उपलब्ध है और चिंता का कारण है, और खतरा जो आमतौर पर एआई के सर्वनाशकारी प्रतिपादन से जुड़ा है जो आर्टिफिशियल जनरल इंटेलिजेंस (एजीआई) है।

कृत्रिम संकीर्ण बुद्धि के खतरे

यह समझने के लिए कि एएनआई क्या है, आपको बस यह समझने की आवश्यकता है कि वर्तमान में उपलब्ध प्रत्येक एआई एप्लिकेशन एएनआई का एक रूप है। ये एआई के क्षेत्र हैं जिनमें विशेषज्ञता का एक संकीर्ण क्षेत्र है, उदाहरण के लिए स्वायत्त वाहन एआई का उपयोग करते हैं जिसे वाहन को बिंदु ए से बी तक ले जाने के एकमात्र उद्देश्य से डिज़ाइन किया गया है। एएनआई का एक अन्य प्रकार एक शतरंज कार्यक्रम हो सकता है जिसे खेलने के लिए अनुकूलित किया गया है शतरंज, और भले ही शतरंज कार्यक्रम लगातार सुदृढीकरण सीखने का उपयोग करके खुद को बेहतर बनाता है, शतरंज कार्यक्रम कभी भी एक स्वायत्त वाहन संचालित करने में सक्षम नहीं होगा।

जिस भी ऑपरेशन के लिए वह जिम्मेदार है, उस पर अपना ध्यान केंद्रित करने के कारण, एएनआई सिस्टम दुनिया पर कब्ज़ा करने के लिए सामान्यीकृत शिक्षा का उपयोग करने में असमर्थ है। यह तो शुभ समाचार है; बुरी खबर यह है कि मानव ऑपरेटर पर निर्भरता के कारण एआई सिस्टम पक्षपाती डेटा, मानवीय त्रुटि या इससे भी बदतर, एक दुष्ट मानव ऑपरेटर के प्रति संवेदनशील है।

एआई निगरानी

मानवता के लिए इससे बड़ा कोई खतरा नहीं हो सकता है कि मनुष्य निजता पर हमला करने के लिए एआई का उपयोग करें, और कुछ मामलों में लोगों को स्वतंत्र रूप से घूमने से पूरी तरह से रोकने के लिए एआई निगरानी का उपयोग करें।  चीन, रूस और अन्य राष्ट्रों ने COVID-19 के दौरान नियमों को पारित किया उन्हें अपनी-अपनी आबादी की गतिविधियों की निगरानी और नियंत्रण करने में सक्षम बनाना। ये ऐसे कानून हैं जो एक बार लागू हो जाएं तो उन्हें हटाना मुश्किल होता है, खासकर उन समाजों में जहां निरंकुश नेता होते हैं।

चीन में, कैमरे लोगों के घरों के बाहर और कुछ मामलों में व्यक्ति के घर के अंदर तैनात किए जाते हैं। हर बार जब घर का कोई सदस्य बाहर जाता है, तो एक एआई आगमन और प्रस्थान के समय की निगरानी करता है, और यदि आवश्यक हो तो अधिकारियों को सचेत करता है। जैसे कि वह पर्याप्त नहीं था, चेहरे की पहचान तकनीक की सहायता से, चीन हर बार कैमरे द्वारा पहचाने जाने पर प्रत्येक व्यक्ति की गतिविधि को ट्रैक करने में सक्षम है। यह एआई को नियंत्रित करने वाली इकाई को पूर्ण शक्ति प्रदान करता है, और उसके नागरिकों को बिल्कुल शून्य सहारा प्रदान करता है।

यह परिदृश्य खतरनाक क्यों है, इसका कारण यह है कि भ्रष्ट सरकारें पत्रकारों, राजनीतिक विरोधियों, या सरकार के अधिकार पर सवाल उठाने की हिम्मत करने वाले किसी भी व्यक्ति की गतिविधियों पर सावधानीपूर्वक निगरानी रख सकती हैं। यह समझना आसान है कि जब हर गतिविधि पर नजर रखी जा रही हो तो पत्रकार और नागरिक सरकारों की आलोचना करने में कैसे सतर्क होंगे।

सौभाग्य से ऐसे कई शहर हैं जो चेहरे की पहचान को अपने शहरों में घुसपैठ करने से रोकने के लिए संघर्ष कर रहे हैं। उल्लेखनीय रूप से, पोर्टलैंड, ओरेगन ने हाल ही में एक कानून पारित किया है जो चेहरे की पहचान को शहर में अनावश्यक रूप से उपयोग होने से रोकता है। हालाँकि विनियमन में इन परिवर्तनों पर आम जनता का ध्यान नहीं गया होगा, भविष्य में ये नियम उन शहरों के बीच अंतर हो सकते हैं जो कुछ प्रकार की स्वायत्तता और स्वतंत्रता प्रदान करते हैं, और ऐसे शहर जो दमनकारी महसूस करते हैं।

स्वायत्त हथियार और ड्रोन

4500 से अधिक एआई शोध स्वायत्त हथियारों पर प्रतिबंध लगाने की मांग कर रहे हैं और इसका निर्माण किया है घातक स्वायत्त हथियारों पर प्रतिबंध लगाएं वेबसाइट। समूह में कई उल्लेखनीय गैर-लाभकारी संस्थाएं जैसे हस्ताक्षरकर्ता हैं ह्यूमन राइट्स वॉच, एमनेस्टी इंटरनेशनल, और जीवन संस्थान का भविष्य जिसके पास अपने आप में एक शानदार वैज्ञानिक सलाहकार बोर्ड है जिसमें एलोन मस्क, निक बोस्ट्रोम और स्टुअर्ट रसेल शामिल हैं।

जारी रखने से पहले मैं द फ्यूचर ऑफ लाइफ इंस्टीट्यूट से यह उद्धरण साझा करूंगा जो सबसे अच्छी तरह से बताता है कि चिंता का स्पष्ट कारण क्यों है: "अर्ध-स्वायत्त हथियारों के विपरीत, जिन्हें यह सुनिश्चित करने के लिए मानव निरीक्षण की आवश्यकता होती है कि प्रत्येक लक्ष्य नैतिक और कानूनी रूप से वैध है, जैसे पूरी तरह से स्वायत्त हथियार मानवीय हस्तक्षेप के बिना लक्ष्य का चयन करते हैं और उस पर हमला करते हैं, जो घातक क्षति के पूर्ण स्वचालन का प्रतिनिधित्व करता है। ”

वर्तमान में, स्मार्ट बमों को मानव द्वारा चुने गए लक्ष्य के साथ तैनात किया जाता है, और फिर बम एक पाठ्यक्रम की साजिश रचने और अपने लक्ष्य पर उतरने के लिए एआई का उपयोग करता है। समस्या यह है कि जब हम मानव को समीकरण से पूरी तरह हटाने का निर्णय लेते हैं तो क्या होता है?

जब कोई एआई यह चुनता है कि मनुष्यों को किस प्रकार के लक्ष्यीकरण की आवश्यकता है, साथ ही किस प्रकार की संपार्श्विक क्षति स्वीकार्य मानी जाती है, तो हम बिना वापसी के एक बिंदु को पार कर सकते हैं। यही कारण है कि बहुत से एआई शोधकर्ता ऐसी किसी भी चीज़ पर शोध करने का विरोध करते हैं जो स्वायत्त हथियारों से दूर से संबंधित हो।

स्वायत्त हथियार अनुसंधान को अवरुद्ध करने के प्रयास में कई समस्याएं हैं। पहली समस्या यह है कि भले ही कनाडा, संयुक्त राज्य अमेरिका और अधिकांश यूरोप जैसे उन्नत देश प्रतिबंध के लिए सहमत हों, इसका मतलब यह नहीं है कि चीन, उत्तर कोरिया, ईरान और रूस जैसे दुष्ट देश साथ निभाएंगे। दूसरी और बड़ी समस्या यह है कि एआई अनुसंधान और अनुप्रयोग जो एक क्षेत्र में उपयोग के लिए डिज़ाइन किए गए हैं, उनका उपयोग पूरी तरह से असंबंधित क्षेत्र में किया जा सकता है।

उदाहरण के लिए, कंप्यूटर दृष्टि में लगातार सुधार हो रहा है और यह स्वायत्त वाहनों, सटीक चिकित्सा और अन्य महत्वपूर्ण उपयोग के मामलों के विकास के लिए महत्वपूर्ण है। यह नियमित ड्रोन या ड्रोन के लिए भी मौलिक रूप से महत्वपूर्ण है जिन्हें स्वायत्त बनने के लिए संशोधित किया जा सकता है। उन्नत ड्रोन तकनीक का एक संभावित उपयोग ऐसे ड्रोन विकसित करना है जो जंगल की आग की निगरानी और उससे लड़ सकें। इससे अग्निशामकों को नुकसान से पूरी तरह बचाया जा सकेगा। ऐसा करने के लिए, आपको ऐसे ड्रोन बनाने की आवश्यकता होगी जो नुकसान पहुंचाने वाले रास्ते पर उड़ान भरने में सक्षम हों, कम या शून्य दृश्यता में नेविगेट करने में सक्षम हों, और त्रुटिहीन सटीकता के साथ पानी गिराने में सक्षम हों। फिर इस समान तकनीक का उपयोग एक स्वायत्त ड्रोन में करना कोई दूर की बात नहीं है जिसे मनुष्यों को चुनिंदा रूप से लक्षित करने के लिए डिज़ाइन किया गया है।

यह एक खतरनाक परिस्थिति है और इस समय, कोई भी स्वायत्त हथियारों के विकास को आगे बढ़ाने या अवरुद्ध करने का प्रयास करने के निहितार्थ को पूरी तरह से नहीं समझता है। फिर भी यह कुछ ऐसा है जिस पर हमें नजर रखने, सुधार करने की जरूरत है मुखबिर सुरक्षा क्षेत्र में मौजूद लोगों को दुर्व्यवहार की रिपोर्ट करने में सक्षम बनाया जा सकता है।

दुष्ट ऑपरेटर को छोड़ दें, तो क्या होगा यदि एआई पूर्वाग्रह एआई तकनीक में घुस जाए जिसे एक स्वायत्त हथियार के रूप में डिज़ाइन किया गया है?

ऐ पूर्वाग्रह

एआई के सबसे अज्ञात खतरों में से एक एआई पूर्वाग्रह है। इसे समझना आसान है क्योंकि इसमें से अधिकांश अनजाने में है। एआई पूर्वाग्रह तब सामने आता है जब एआई मनुष्यों द्वारा उसे खिलाए गए डेटा की समीक्षा करता है, एआई को खिलाए गए डेटा से पैटर्न पहचान का उपयोग करके, एआई गलत निष्कर्ष पर पहुंचता है जिसका समाज पर नकारात्मक प्रभाव पड़ सकता है। उदाहरण के लिए, एक एआई जिसमें चिकित्सा कर्मियों की पहचान करने के तरीके पर पिछली सदी का साहित्य डाला गया है, वह अवांछित लिंगवादी निष्कर्ष पर पहुंच सकता है महिलाएं हमेशा नर्स होती हैं, और पुरुष हमेशा डॉक्टर होते हैं.

इससे भी अधिक खतरनाक स्थिति तब होती है जब सजायाफ्ता अपराधियों को सजा देने के लिए इस्तेमाल की जाने वाली एआई पक्षपातपूर्ण है अल्पसंख्यकों को लंबी जेल की सजा देने की दिशा में। एआई के आपराधिक जोखिम मूल्यांकन एल्गोरिदम केवल सिस्टम में फीड किए गए डेटा के पैटर्न का अध्ययन कर रहे हैं। यह डेटा इंगित करता है कि ऐतिहासिक रूप से कुछ अल्पसंख्यकों द्वारा दोबारा अपराध करने की संभावना अधिक होती है, भले ही यह खराब डेटासेट के कारण हो जो पुलिस नस्लीय प्रोफाइलिंग से प्रभावित हो सकता है। पक्षपाती एआई तब नकारात्मक मानवीय नीतियों को पुष्ट करता है। यही कारण है कि एआई एक दिशानिर्देश होना चाहिए, कभी भी जज और जूरी नहीं होना चाहिए।

स्वायत्त हथियारों की ओर लौटते हुए, यदि हमारे पास एक एआई है जो कुछ जातीय समूहों के प्रति पक्षपाती है, तो यह पक्षपाती डेटा के आधार पर कुछ व्यक्तियों को लक्षित करना चुन सकता है, और यह यह सुनिश्चित करने तक जा सकता है कि किसी भी प्रकार की संपार्श्विक क्षति कुछ जनसांख्यिकी को दूसरों की तुलना में कम प्रभावित करती है। . उदाहरण के लिए, जब किसी आतंकवादी को निशाना बनाया जाता है, तो हमला करने से पहले तब तक इंतजार किया जा सकता है जब तक कि आतंकवादी ईसाइयों के बजाय मुस्लिम धर्म का पालन करने वालों से घिरा न हो।

सौभाग्य से, यह साबित हो चुका है कि विविध टीमों के साथ डिज़ाइन की गई एआई में पूर्वाग्रह की संभावना कम होती है। उद्यमों के लिए यह पर्याप्त कारण है कि जब भी संभव हो एक विविध, सर्वांगीण टीम को नियुक्त करने का प्रयास किया जाए।

आर्टिफिशियल जनरल इंटेलिजेंस खतरे

यह कहा जाना चाहिए कि यद्यपि एआई तेजी से आगे बढ़ रहा है, हमने अभी भी एजीआई हासिल नहीं किया है। हम एजीआई पर कब पहुंचेंगे, इस पर बहस चल रही है और समयसीमा के बारे में हर किसी का जवाब अलग-अलग है। मैं व्यक्तिगत रूप से रे कुर्ज़वील, आविष्कारक, भविष्यवादी और 'द सिंगुलैरिटी इज नियर' के लेखक के विचारों से सहमत हूं, जिनका मानना ​​है कि हमारे पास होगा 2029 तक एजीआई हासिल किया.

एजीआई दुनिया की सबसे परिवर्तनकारी तकनीक होगी। एआई द्वारा मानव-स्तर की बुद्धिमत्ता हासिल करने के कुछ ही हफ्तों के भीतर, यह पहुंच जाएगी अधीक्षण जिसे ऐसी बुद्धिमत्ता के रूप में परिभाषित किया गया है जो मनुष्य से कहीं अधिक बेहतर है।

बुद्धिमत्ता के इस स्तर के साथ एक एजीआई सभी मानव ज्ञान को जल्दी से अवशोषित कर सकता है और स्वास्थ्य समस्याओं का कारण बनने वाले बायोमार्कर की पहचान करने के लिए पैटर्न पहचान का उपयोग कर सकता है, और फिर डेटा विज्ञान का उपयोग करके उन स्थितियों का इलाज कर सकता है। यह नैनोबॉट्स बना सकता है जो कैंसर कोशिकाओं या अन्य हमलावर वैक्टरों को लक्षित करने के लिए रक्तप्रवाह में प्रवेश करते हैं। एजीआई सक्षम उपलब्धियों की सूची अनंत है। हमने पहले इनमें से कुछ का अन्वेषण किया है एजीआई के लाभ.

समस्या यह है कि मनुष्य अब एआई को नियंत्रित करने में सक्षम नहीं हो सकते हैं। एलोन मस्क इसका वर्णन इस प्रकार करते हैं: "कृत्रिम बुद्धिमत्ता से हम राक्षस को बुला रहे हैं.' सवाल यह है कि क्या हम इस दानव पर काबू पा सकेंगे?

एजीआई हासिल करना तब तक असंभव हो सकता है जब तक कि एआई हमारी खुली दुनिया में वास्तव में बातचीत करने के लिए एक सिमुलेशन सेटिंग नहीं छोड़ देता। आत्म-जागरूकता को डिज़ाइन नहीं किया जा सकता है, इसके बजाय यह माना जाता है कि आकस्मिक चेतना इसके विकसित होने की संभावना है जब एआई में कई इनपुट स्ट्रीम वाली रोबोटिक बॉडी होगी। इन इनपुट में स्पर्श उत्तेजना, बढ़ी हुई प्राकृतिक भाषा समझ के साथ आवाज पहचान, और संवर्धित कंप्यूटर दृष्टि शामिल हो सकती है।

उन्नत एआई को परोपकारी उद्देश्यों के साथ प्रोग्राम किया जा सकता है और वे ग्रह को बचाना चाहते हैं। दुर्भाग्य से, AI का उपयोग हो सकता है डेटा विज्ञान, या यहां तक ​​कि ए निर्णय वृक्ष अवांछित दोषपूर्ण तर्क पर पहुंचना, जैसे कि यह आकलन करना कि मानव जनसंख्या को नियंत्रित करने के लिए मनुष्यों की नसबंदी करना या कुछ मानव आबादी को खत्म करना आवश्यक है।

ऐसी बुद्धिमत्ता वाली AI का निर्माण करते समय सावधानीपूर्वक विचार और विचार-विमर्श करने की आवश्यकता है जो मानव से कहीं अधिक बेहतर होगी। ऐसे कई दुःस्वप्न परिदृश्य हैं जिनका पता लगाया गया है।

पेपरक्लिप मैक्सिमाइज़र तर्क में प्रोफेसर निक बोस्ट्रोम तर्क दिया गया है कि यदि गलत तरीके से कॉन्फ़िगर किए गए एजीआई को पेपरक्लिप का उत्पादन करने का निर्देश दिया जाता है तो इन पेपरक्लिप का उत्पादन करने के लिए पृथ्वी के सभी संसाधनों का उपभोग हो जाएगा। हालाँकि यह थोड़ा दूर की बात लगती है, एक अधिक व्यावहारिक दृष्टिकोण यह है कि एजीआई को एक दुष्ट राज्य या खराब नैतिकता वाले निगम द्वारा नियंत्रित किया जा सकता है। यह इकाई एजीआई को लाभ को अधिकतम करने के लिए प्रशिक्षित कर सकती है, और इस मामले में खराब प्रोग्रामिंग और शून्य पश्चाताप के साथ यह प्रतिद्वंद्वियों को दिवालिया करने, आपूर्ति श्रृंखलाओं को नष्ट करने, शेयर बाजार को हैक करने, बैंक खातों को नष्ट करने या राजनीतिक विरोधियों पर हमला करने का विकल्प चुन सकती है।

यह तब है जब हमें यह याद रखने की आवश्यकता है कि मनुष्य मानवरूपीकरण की ओर प्रवृत्त होते हैं। हम एआई को मानव-प्रकार की भावनाएं, चाहत या इच्छाएं नहीं दे सकते। जबकि ऐसे शैतानी इंसान हैं जो आनंद के लिए हत्या करते हैं, यह मानने का कोई कारण नहीं है कि एआई इस प्रकार के व्यवहार के प्रति संवेदनशील होगा। मनुष्यों के लिए यह सोचना भी अकल्पनीय है कि एआई दुनिया को कैसे देखेगा।

इसके बजाय हमें एआई को यह सिखाना होगा कि वह हमेशा इंसान के प्रति सम्मानजनक रहे। एआई के पास सेटिंग्स में किसी भी बदलाव की पुष्टि के लिए हमेशा एक मानव होना चाहिए, और हमेशा एक असफल-सुरक्षित तंत्र होना चाहिए। फिर, यह तर्क दिया गया है कि एआई केवल क्लाउड में खुद को दोहराएगा, और जब तक हमें पता चलेगा कि यह आत्म-जागरूक है तब तक बहुत देर हो चुकी होगी।

यही कारण है कि जितना संभव हो सके एआई को खोलना और इन मुद्दों के संबंध में तर्कसंगत चर्चा करना इतना महत्वपूर्ण है।

सारांश

एआई के लिए कई चुनौतियाँ हैं, सौभाग्य से, हमारे पास अभी भी सामूहिक रूप से भविष्य के उस रास्ते का पता लगाने के लिए कई साल हैं जो हम चाहते हैं कि एजीआई ले जाए। हमें अल्पावधि में एक विविध एआई कार्यबल बनाने पर ध्यान केंद्रित करना चाहिए, जिसमें पुरुषों के साथ-साथ अधिक से अधिक महिलाएं और विविध दृष्टिकोण वाले अधिक से अधिक जातीय समूह शामिल हों।

हमें उन शोधकर्ताओं के लिए व्हिसलब्लोअर सुरक्षा भी बनानी चाहिए जो एआई पर काम कर रहे हैं, और हमें ऐसे कानून और नियम पारित करने चाहिए जो राज्य या कंपनी-व्यापी निगरानी के व्यापक दुरुपयोग को रोकें। मनुष्य के पास एआई की सहायता से मानवीय स्थिति में सुधार करने का अवसर जीवन में एक बार मिलता है, हमें बस यह सुनिश्चित करने की आवश्यकता है कि हम सावधानीपूर्वक एक सामाजिक ढांचा तैयार करें जो सकारात्मकता को सर्वोत्तम रूप से सक्षम बनाता है, जबकि नकारात्मकताओं को कम करता है जिसमें अस्तित्व संबंधी खतरे भी शामिल हैं।

Unity.AI का संस्थापक भागीदार और सदस्य फोर्ब्स प्रौद्योगिकी परिषद, एंटोनी एक है भविष्यवादी जो एआई और रोबोटिक्स के भविष्य को लेकर उत्साहित हैं।

के संस्थापक भी हैं सिक्योरिटीज.io, एक वेबसाइट जो विघटनकारी प्रौद्योगिकी में निवेश पर केंद्रित है।