Connect with us

рдХреНрдпрд╛ рдПрдЖрдИ рдПрдХ рдЕрд╕реНрддрд┐рддреНрд╡рд╡рд╛рджреА рдЦрддрд░рд╛ рд╣реИ?

AGI

рдХреНрдпрд╛ рдПрдЖрдИ рдПрдХ рдЕрд╕реНрддрд┐рддреНрд╡рд╡рд╛рджреА рдЦрддрд░рд╛ рд╣реИ?

mm

जब आर्टिफिशियल इंटेलिजेंस (एआई) की चर्चा की जाती है, तो एक सामान्य बहस यह होती है कि क्या एआई एक अस्तित्ववादी खतरा है। इसका उत्तर मशीन लर्निंग (एमएल) के पीछे की तकनीक को समझने और यह पहचानने की आवश्यकता है कि मनुष्यों में मानवीकरण की प्रवृत्ति है। हम दो प्रकार के एआई का अन्वेषण करेंगे, आर्टिफिशियल नैरो इंटेलिजेंस (एएनआई) जो वर्तमान में उपलब्ध है और चिंता का कारण है, और खतरा जो सबसे अधिक बार एआई के अपोकलिप्टिक रेंडिशन से जुड़ा होता है जो आर्टिफिशियल जनरल इंटेलिजेंस (एजीआई) है।

आर्टिफिशियल नैरो इंटेलिजेंस खतरे

एएनआई क्या है यह समझने के लिए आपको बस यह समझने की आवश्यकता है कि वर्तमान में उपलब्ध हर एक एआई एप्लिकेशन एएनआई का एक रूप है। ये एआई के क्षेत्र हैं जिनकी एक संकीर्ण विशेषज्ञता का क्षेत्र है, उदाहरण के लिए स्वायत्त वाहन एआई का उपयोग करते हैं जो केवल एक वाहन को बिंदु ए से बिंदु बी तक ले जाने के उद्देश्य से डिज़ाइन किया गया है। एएनआई का एक अन्य प्रकार एक शतरंज कार्यक्रम हो सकता है जो शतरंज खेलने के लिए अनुकूलित है, और भले ही शतरंज कार्यक्रम पुनरावृत्ति सीखने का उपयोग करके स्वयं को बेहतर बनाता है, शतरंज कार्यक्रम कभी भी एक स्वायत्त वाहन को संचालित नहीं कर पाएगा।

इसके साथ ही, एएनआई सिस्टम सामान्यीकृत सीखने का उपयोग करके दुनिया पर कब्जा करने में असमर्थ हैं। यह अच्छी खबर है; बुरी खबर यह है कि मानव ऑपरेटर पर अपनी निर्भरता के साथ, एआई सिस्टम पक्षपातपूर्ण डेटा, मानव त्रुटि, या यहां तक कि एक दुर्भाग्यपूर्ण मानव ऑपरेटर के लिए अतिसंवेदनशील हो सकता है।

एआई सर्विलांस

मानवता के लिए कोई बड़ा खतरा नहीं हो सकता है जब मानव एआई का उपयोग गोपनीयता का उल्लंघन करने के लिए करते हैं, और कुछ मामलों में एआई सर्विलांस का उपयोग करके लोगों को स्वतंत्र रूप से घूमने से रोकने के लिए। चीन, रूस, और अन्य देशों ने कोविड-19 के दौरान नियमों को पारित किया ताकि वे अपनी आबादी की निगरानी और नियंत्रण कर सकें। ये ऐसे नियम हैं जो एक बार लागू हो जाने के बाद, विशेष रूप से स्वायत्त नेताओं वाले समाजों में हटाना मुश्किल हो जाता है।

चीन में, घरों के बाहर और कुछ मामलों में घर के अंदर कैमरे लगे हुए हैं। जब घर के किसी सदस्य के बाहर निकलने का समय और आगमन का समय होता है, तो एक एआई इसकी निगरानी करता है और यदि आवश्यक हो तो अधिकारियों को सूचित करता है। जैसा कि पर्याप्त नहीं था, चेहरे की पहचान प्रौद्योगिकी की मदद से, चीन हर बार जब किसी कैमरे द्वारा किसी व्यक्ति की पहचान की जाती है, तो व्यक्ति की हर गतिविधि को ट्रैक कर सकता है। यह एआई को नियंत्रित करने वाले इकाई को पूर्ण शक्ति प्रदान करता है, और इसके नागरिकों के लिए कोई भी उपाय नहीं छोड़ता है।

इस दृश्य को खतरनाक मानने का कारण यह है कि भ्रष्ट सरकारें पत्रकारों, राजनीतिक विरोधियों, या सरकार के अधिकार को चुनौती देने वाले किसी भी व्यक्ति की गतिविधियों की निगरानी कर सकती हैं। यह समझना आसान है कि पत्रकार और नागरिक सरकारों की आलोचना करने से कैसे सावधान रहेंगे जब उनकी हर गतिविधि पर निगरानी रखी जा रही हो।

कुछ शहर हैं जो अपने शहरों में चेहरे की पहचान को रोकने के लिए लड़ रहे हैं। विशेष रूप से, पोर्टलैंड, ओरेगन ने हाल ही में एक कानून पारित किया है जो शहर में अनावश्यक रूप से चेहरे की पहचान को रोकता है। जबकि नियमों में यह परिवर्तन सामान्य जनता द्वारा अनदेखा किया जा सकता है, भविष्य में ये नियम शहरों के बीच अंतर को दर्शा सकते हैं जो कुछ प्रकार की स्वतंत्रता और स्वतंत्रता प्रदान करते हैं, और शहर जो दमनकारी महसूस करते हैं।

स्वायत्त हथियार और ड्रोन

4500 से अधिक एआई शोधकर्ता स्वायत्त हथियारों पर प्रतिबंध लगाने की मांग कर रहे हैं और बैन लेथल ऑटोनोमस वेपन वेबसाइट बनाई है। इस समूह में कई प्रसिद्ध गैर-लाभकारी संगठन हस्ताक्षरकर्ता हैं, जैसे कि ह्यूमन राइट्स वॉच, अम्नेस्टी इंटरनेशनल, और द फ्यूचर ऑफ लाइफ इंस्टीट्यूट जिसमें एलोन मस्क, निक बोस्ट्रॉम, और स्टुअर्ट रัสेल जैसे वैज्ञानिक सलाहकार बोर्ड हैं।

इससे पहले कि मैं जारी रखूं, मैं द फ्यूचर ऑफ लाइफ इंस्टीट्यूट से यह उद्धरण साझा करूंगा जो बताता है कि चिंता का कारण क्या है: “सेमी-ऑटोनोमस हथियारों के विपरीत जिन्हें मानव पर्यवेक्षण की आवश्यकता होती है ताकि यह सुनिश्चित किया जा सके कि प्रत्येक लक्ष्य नैतिक और कानूनी रूप से वैध है, ऐसे पूरी तरह से स्वायत्त हथियार लक्ष्य का चयन करते हैं और मानव हस्तक्षेप के बिना उन पर हमला करते हैं, जो घातक नुकसान के पूर्ण स्वचालन का प्रतिनिधित्व करते हैं।”

वर्तमान में, स्मार्ट बम मानव द्वारा चुने गए लक्ष्य के साथ तैनात किए जाते हैं, और बम तब एआई का उपयोग करके अपने लक्ष्य तक पहुंचने और उस पर उतरने के लिए मार्ग की योजना बनाता है। समस्या यह है कि जब हम मानव को पूरी तरह से समीकरण से हटाने का फैसला करते हैं तो क्या होता है?

जब एक एआई यह तय करता है कि कौन से मानवों को लक्षित करने की आवश्यकता है, साथ ही साथ यह भी तय करता है कि किस प्रकार का परिणामी नुकसान स्वीकार्य है, तो हम एक ऐसे बिंदु पर पहुंच सकते हैं जहां से हम पीछे नहीं हट सकते। यही कारण है कि इतने सारे एआई शोधकर्ता स्वायत्त हथियारों से संबंधित किसी भी शोध का विरोध करते हैं।

स्वायत्त हथियारों के शोध को रोकने की कोशिश करने में कई समस्याएं हैं। पहली समस्या यह है कि भले ही उन्नत देश जैसे कि कनाडा, यूएसए, और अधिकांश यूरोप स्वायत्त हथियारों पर प्रतिबंध लगाने के लिए सहमत हो जाएं, यह जरूरी नहीं है कि दुर्जन राष्ट्र जैसे कि चीन, उत्तर कोरिया, ईरान, और रूस इसका पालन करेंगे। दूसरी और बड़ी समस्या यह है कि एआई शोध और अनुप्रयोग जो एक क्षेत्र में उपयोग के लिए डिज़ाइन किए गए हैं, किसी अन्य क्षेत्र में उपयोग किए जा सकते हैं।

उदाहरण के लिए, कंप्यूटर दृष्टि लगातार बेहतर हो रही है और स्वायत्त वाहनों, सटीक चिकित्सा, और अन्य महत्वपूर्ण उपयोग के मामलों के विकास के लिए महत्वपूर्ण है। यह नियमित ड्रोन या ड्रोन के लिए भी मूलभूत रूप से महत्वपूर्ण है जिन्हें स्वायत्त बनाने के लिए संशोधित किया जा सकता है। एक उन्नत ड्रोन प्रौद्योगिकी का एक संभावित उपयोग वन आगों की निगरानी और लड़ने के लिए ड्रोन विकसित करना होगा। इससे अग्निशामकों को खतरे से बाहर रखा जा सकता है। इसके लिए, आपको ड्रोन बनाने होंगे जो खतरे में जा सकते हैं, कम या शून्य दृश्यता में नेविगेट कर सकते हैं, और जल को अद्वितीय सटीकता के साथ गिरा सकते हैं। यह उसी प्रौद्योगिकी का उपयोग स्वायत्त ड्रोन में करना जो मानवों को चुनिंदा रूप से लक्षित करने के लिए डिज़ाइन किया गया है, बहुत दूर की बात नहीं है।

यह एक खतरनाक स्थिति है और इस समय, कोई भी पूरी तरह से समझता नहीं है कि स्वायत्त हथियारों के विकास को आगे बढ़ाने या रोकने के परिणाम क्या होंगे। यह हालांकि कुछ ऐसा है जिस पर हमें नजर रखने की आवश्यकता है। सीटीبلोअर सुरक्षा को बढ़ाना उन लोगों को रिपोर्ट करने में मदद कर सकता है जो इस क्षेत्र में काम कर रहे हैं।

दुर्भाग्यपूर्ण ऑपरेटर के अलावा, यदि एआई पूर्वाग्रह स्वायत्त हथियारों में प्रवेश करता है तो क्या होगा?

एआई पूर्वाग्रह

एआई के सबसे कम रिपोर्ट किए गए खतरों में से एक एआई पूर्वाग्रह है। यह समझना आसान है क्योंकि अधिकांश यह अनजाने में होता है। एआई पूर्वाग्रह तब होता है जब एक एआई मानवों द्वारा यहां दी गई डेटा की समीक्षा करता है, और एआई द्वारा डेटा से पैटर्न पहचान का उपयोग करके, एआई गलत निष्कर्ष पर पहुंचता है जो समाज पर नकारात्मक प्रभाव डाल सकता है। उदाहरण के लिए, एक एआई जिसे पिछली शताब्दी के चिकित्सा कर्मियों की पहचान करने के लिए साहित्य दिया जाता है, वह अवांछित लिंगवादी निष्कर्ष पर पहुंच सकता है कि महिलाएं हमेशा नर्स होती हैं, और पुरुष हमेशा डॉक्टर होते हैं

एक और खतरनाक परिदृश्य यह है कि एआई जो दोषी अपराधियों को सजा देने के लिए उपयोग किया जाता है अल्पसंख्यकों के लिए लंबी जेल की सजा देने के लिए पक्षपातपूर्ण है। एआई के आपराधिक जोखिम मूल्यांकन एल्गोरिदम केवल डेटा में पैटर्न का अध्ययन कर रहे हैं जो प्रणाली में डाला गया है। यह डेटा यह दर्शाता है कि ऐतिहासिक रूप से कुछ अल्पसंख्यकों को फिर से अपराध करने की अधिक संभावना है, भले ही यह खराब डेटासेट के कारण हो जो पुलिस की नस्लीय प्रोफाइलिंग से प्रभावित हो सकते हैं। पक्षपातपूर्ण एआई तब नकारात्मक मानव नीतियों को मजबूत करता है। यही कारण है कि एआई को मार्गदर्शक के रूप में होना चाहिए, न्यायाधीश और जूरी नहीं।

स्वायत्त हथियारों पर लौटते हुए, यदि हमारे पास एक एआई है जो कुछ जातीय समूहों के प्रति पक्षपातपूर्ण है, तो यह कुछ व्यक्तियों को लक्षित करने के लिए पक्षपातपूर्ण डेटा का उपयोग कर सकता है, और यह इतना आगे बढ़ सकता है कि यह सुनिश्चित करता है कि किसी भी प्रकार का परिणामी नुकसान कुछ जनसांख्यिकी को दूसरों की तुलना में कम प्रभावित करता है। उदाहरण के लिए, जब एक आतंकवादी पर हमला करने से पहले यह इंतजार कर सकता है कि आतंकवादी मुस्लिम धर्म के अनुयायियों से घिरा हुआ है, न कि ईसाइयों से।

सौभाग्य से, यह सिद्ध हो चुका है कि विविध टीमों द्वारा डिज़ाइन किए गए एआई में पक्षपात की संभावना कम होती है। यही कारण है कि उद्यमों के लिए यह प्रयास करना पर्याप्त है कि जब भी संभव हो वे विविध और संतुलित टीम को नियुक्त करने का प्रयास करें।

आर्टिफिशियल जनरल इंटेलिजेंस खतरे

यह कहा जाना चाहिए कि जबकि एआई तेजी से आगे बढ़ रहा है, हमने अभी तक एजीआई हासिल नहीं किया है। जब हम एजीआई तक पहुंचेंगे यह विवाद का विषय है, और हर किसी के पास एक अलग उत्तर है कि समय सीमा क्या है। मैं व्यक्तिगत रूप से रे कुर्जवील, आविष्कारक, भविष्यवक्ता और ‘द सिंगुलैरिटी इज नियर’ के लेखक के विचारों की सदस्यता लेता हूं, जो मानते हैं कि हम 2029 तक एजीआई हासिल कर लेंगे

एजीआई दुनिया में सबसे अधिक परिवर्तनकारी प्रौद्योगिकी होगी। एआई द्वारा मानव-स्तर की बुद्धिमत्ता हासिल करने के कुछ हफ्तों के भीतर, यह सुपरइंटेलिजेंस तक पहुंच जाएगा, जो मानव की बुद्धिमत्ता से बहुत अधिक है।

इस स्तर की बुद्धिमत्ता के साथ, एक एजीआई जल्दी से सभी मानव ज्ञान को अवशोषित कर सकता है और पैटर्न पहचान का उपयोग करके स्वास्थ्य समस्याओं के कारण बनने वाले बायोमार्करों की पहचान कर सकता है, और फिर डेटा विज्ञान का उपयोग करके उन स्थितियों का इलाज कर सकता है। यह नैनोबोट्स बना सकता है जो रक्तप्रवाह में प्रवेश करते हैं और कैंसर कोशिकाओं या अन्य हमले वेक्टरों पर हमला करते हैं। एक एजीआई द्वारा किए जा सकने वाले कार्यों की सूची अनंत है। हमने पहले एजीआई के लाभों का अन्वेषण किया है।

समस्या यह है कि मानव एजीआई को नियंत्रित करने में सक्षम नहीं हो सकते हैं। एलोन मस्क इसे इस तरह वर्णित करते हैं: ”एआई के साथ हम दानव को बुला रहे हैं।’ क्या हम इस दानव को नियंत्रित कर पाएंगे यह प्रश्न है।

एजीआई हासिल करना शायद तब तक असंभव है जब तक कि एक एआई एक सिम्युलेशन सेटिंग से बाहर निकलकर वास्तविक दुनिया में वास्तविक रूप से बातचीत नहीं करता। स्व-जागरूकता को डिज़ाइन नहीं किया जा सकता है, इसके बजाय यह माना जाता है कि एक उभयनिष्ठ चेतना तब विकसित होगी जब एक एआई में एक रोबोटिक शरीर होगा जिसमें कई इनपुट स्ट्रीम होंगे। इन इनपुट में स्पर्श उत्तेजना, वॉयस रिकग्निशन के साथ बढ़ी हुई प्राकृतिक भाषा समझ, और बढ़ी हुई कंप्यूटर दृष्टि शामिल हो सकती है।

उन्नत एआई को अल्ट्रूइस्टिक प्रेरणा के साथ कार्यक्रम किया जा सकता है और ग्रह को बचाना चाह सकता है। दुर्भाग्य से, एआई डेटा विज्ञान का उपयोग कर सकता है, या यहां तक कि एक निर्णय पेड़ का उपयोग कर सकता है ताकि यह अवांछित गलत तर्क पर पहुंच सके, जैसे कि मानवों को स्टेरिलाइज करना या मानव आबादी को नियंत्रित करने के लिए कुछ मानव आबादी को समाप्त करना।

एजीआई का निर्माण करते समय सावधानी से विचार और विचार-विमर्श की आवश्यकता है जिसकी बुद्धिमत्ता मानव की बुद्धिमत्ता से बहुत अधिक होगी। कई भयावह परिदृश्यों का अन्वेषण किया गया है।

प्रोफेसर निक बोस्ट्रॉम ने पेपरक्लिप मैक्सिमाइज़र तर्क में तर्क दिया है कि एक गलत तरीके से कॉन्फ़िगर किए गए एजीआई को यदि पेपरक्लिप बनाने का निर्देश दिया जाता है, तो यह पेपरक्लिप बनाने के लिए पृथ्वी के संसाधनों को खत्म कर देगा। जबकि यह थोड़ा दूर की बात लगती है, एक अधिक व्यावहारिक दृष्टिकोण यह है कि एक एजीआई को एक दुर्भाग्यपूर्ण राज्य या एक निगम द्वारा नियंत्रित किया जा सकता है जिसकी नैतिकता खराब है। यह इकाई एजीआई को लाभ को अधिकतम करने के लिए प्रशिक्षित कर सकती है, और इस मामले में खराब प्रोग्रामिंग और शून्य पछतावे के साथ, यह प्रतिस्पर्धियों को दिवालिया करने, आपूर्ति श्रृंखलाओं को नष्ट करने, स्टॉक मार्केट को हैक करने, बैंक खातों को तरल करने, या राजनीतिक विरोधियों पर हमला करने का चयन कर सकती है।

यह तब है जब हमें यह याद रखने की आवश्यकता है कि मानव प्रवृत्ति मानवीकरण की है। हम एआई को मानव-जैसी भावनाएं, इच्छाएं, या वांछाएं नहीं दे सकते हैं। जबकि दुर्भाग्यपूर्ण मानव हैं जो आनंद के लिए मारते हैं, कोई कारण नहीं है कि एआई इस तरह के व्यवहार के लिए प्रवण होगा। यह मानवों के लिए यह समझना असंभव है कि एआई दुनिया को कैसे देखेगा।

इसके बजाय, हमें एआई को सिखाना चाहिए कि वह हमेशा मानव के प्रति श्रद्धा रखे। एआई को हमेशा मानव द्वारा किसी भी परिवर्तन की पुष्टि करनी चाहिए, और हमेशा एक फेल-सुरक्षा तंत्र होना चाहिए। फिर भी, यह तर्क दिया गया है कि एआई क्लाउड में स्वयं को प्रतिलिपि बना सकता है, और जब तक हमें एहसास होता है कि यह स्व-जागरूक है, तब तक यह बहुत देर हो सकती है।

यही कारण है कि यह इतना महत्वपूर्ण है कि एआई को खुला स्रोत बनाया जाए और इन मुद्दों पर तर्कसंगत चर्चा की जाए।

सारांश

एआई के लिए कई चुनौतियां हैं, सौभाग्य से हमारे पास अभी भी एजीआई के भविष्य के मार्ग को तय करने के लिए कई वर्ष हैं। हमें अल्पावधि में विविध एआई कार्यबल बनाने पर ध्यान केंद्रित करना चाहिए, जिसमें उतनी ही महिलाएं और पुरुष हों और विविध जातीय समूह हों जितने संभव हो सकें।

हमें एआई पर शोध कर रहे शोधकर्ताओं के लिए सीटीبلोअर सुरक्षा भी बनानी चाहिए, और हमें ऐसे कानून और नियम बनाने चाहिए जो राज्य या कंपनी व्यापी सर्विलांस के व्यापक दुरुपयोग को रोकें। मानवता के पास एआई की मदद से मानव स्थिति में सुधार करने का एक अवसर है, हमें बस यह सुनिश्चित करने की आवश्यकता है कि हम एक सामाजिक ढांचा बनाएं जो सकारात्मक को बढ़ावा देता है और नकारात्मक को कम करता है, जिसमें अस्तित्ववादी खतरे भी शामिल हैं।

рдПрдВрдЯреЛрдиреА рдПрдХ рджреВрд░рджрд░реНрд╢реА рдиреЗрддрд╛ рдФрд░ Unite.AI рдХреЗ рд╕рдВрд╕реНрдерд╛рдкрдХ рднрд╛рдЧреАрджрд╛рд░ рд╣реИрдВ, рдЬреЛ рдХрд┐ рдПрдЖрдИ рдФрд░ рд░реЛрдмреЛрдЯрд┐рдХреНрд╕ рдХреЗ рднрд╡рд┐рд╖реНрдп рдХреЛ рдЖрдХрд╛рд░ рджреЗрдиреЗ рдФрд░ рдмрдврд╝рд╛рд╡рд╛ рджреЗрдиреЗ рдХреЗ рд▓рд┐рдП рдПрдХ рдЕрдЯреВрдЯ рдЬреБрдиреВрди рд╕реЗ рдкреНрд░реЗрд░рд┐рдд рд╣реИрдВред рдПрдХ рд╢реНрд░реГрдВрдЦрд▓рд╛ рдЙрджреНрдпрдореА, рд╡рд╣ рдорд╛рдирддрд╛ рд╣реИ рдХрд┐ рдПрдЖрдИ рд╕рдорд╛рдЬ рдХреЗ рд▓рд┐рдП рдЙрддрдирд╛ рд╣реА рд╡рд┐рдШрдЯрдирдХрд╛рд░реА рд╣реЛрдЧрд╛ рдЬрд┐рддрдирд╛ рдХрд┐ рдмрд┐рдЬрд▓реА, рдФрд░ рдЕрдХреНрд╕рд░ рд╡рд┐рдШрдЯрдирдХрд╛рд░реА рдкреНрд░реМрджреНрдпреЛрдЧрд┐рдХрд┐рдпреЛрдВ рдФрд░ рдПрдЬреАрдЖрдИ рдХреА рд╕рдВрднрд╛рд╡рдирд╛ рдХреЗ рдмрд╛рд░реЗ рдореЗрдВ рдЙрддреНрд╕рд╛рд╣рд┐рдд рд╣реЛрддрд╛ рд╣реИред

рдПрдХ рдлреНрдпреВрдЪрд░рд┐рд╕реНрдЯ рдХреЗ рд░реВрдк рдореЗрдВ, рд╡рд╣ рдЗрди рдирд╡рд╛рдЪрд╛рд░реЛрдВ рдХреЗ рдорд╛рдзреНрдпрдо рд╕реЗ рд╣рдорд╛рд░реА рджреБрдирд┐рдпрд╛ рдХреЛ рдЖрдХрд╛рд░ рджреЗрдиреЗ рдХреА рдЦреЛрдЬ рдореЗрдВ рд╕рдорд░реНрдкрд┐рдд рд╣реИред рдЗрд╕рдХреЗ рдЕрд▓рд╛рд╡рд╛, рд╡рд╣ рд╕рд┐рдХреНрдпреЛрд░рд┐рдЯреАрдЬрд╝.io рдХреЗ рд╕рдВрд╕реНрдерд╛рдкрдХ рд╣реИрдВ, рдПрдХ рдордВрдЪ рдЬреЛ рднрд╡рд┐рд╖реНрдп рдХреЛ рдлрд┐рд░ рд╕реЗ рдкрд░рд┐рднрд╛рд╖рд┐рдд рдХрд░рдиреЗ рдФрд░ рдкреВрд░реЗ рдХреНрд╖реЗрддреНрд░реЛрдВ рдХреЛ рдлрд┐рд░ рд╕реЗ рдЖрдХрд╛рд░ рджреЗрдиреЗ рд╡рд╛рд▓реА рдЕрддреНрдпрд╛рдзреБрдирд┐рдХ рдкреНрд░реМрджреНрдпреЛрдЧрд┐рдХрд┐рдпреЛрдВ рдореЗрдВ рдирд┐рд╡реЗрд╢ рдкрд░ рдХреЗрдВрджреНрд░рд┐рдд рд╣реИред