Connect with us

рдПрдЖрдИ рдиреЗрддрд╛ ‘рд╡рд┐рд▓реБрдкреНрдд рд╣реЛрдиреЗ рдХреЗ рдЬреЛрдЦрд┐рдо’ рдХреА рдЪреЗрддрд╛рд╡рдиреА рджреЗрддреЗ рд╣реИрдВ

рдиреИрддрд┐рдХрддрд╛

рдПрдЖрдИ рдиреЗрддрд╛ ‘рд╡рд┐рд▓реБрдкреНрдд рд╣реЛрдиреЗ рдХреЗ рдЬреЛрдЦрд┐рдо’ рдХреА рдЪреЗрддрд╛рд╡рдиреА рджреЗрддреЗ рд╣реИрдВ

mm

तेजी से तकनीकी प्रगति के एक युग में, कृत्रिम बुद्धिमत्ता (एआई) का उदय नवाचार के अग्रभाग में खड़ा है। हालांकि, यही मानव बुद्धिमत्ता का चमत्कार जो प्रगति और सुविधा को बढ़ावा देता है, वही मानवता के भविष्य के लिए अस्तित्व संबंधी चिंताओं को भी बढ़ावा दे रहा है, जैसा कि प्रमुख एआई नेताओं द्वारा व्यक्त किया गया है।

सेंटर फॉर एआई सेफ्टी ने हाल ही में एक बयान जारी किया है, जिसे उद्योग के अग्रणी लोगों जैसे ओपनएआई के सैम अल्टमैन, गूगल डीपमाइंड के डेमिस हассाबिस और एंथ्रोपिक के डारियो अमोडेई ने समर्थन दिया है। भावना स्पष्ट है – एआई के कारण मानव विलुप्त होने का जोखिम एक वैश्विक प्राथमिकता होना चाहिए। यह दावा एआई समुदाय में बहस को बढ़ावा दे रहा है, जहां कुछ लोग इसे अतिरंजित बता रहे हैं, जबकि अन्य सावधानी के आह्वान का समर्थन कर रहे हैं।

भयानक भविष्यवाणियाँ: एआई की विपत्ति की संभावना

सेंटर फॉर एआई सेफ्टी ने एआई के दुरुपयोग या अनियंत्रित विकास से उत्पन्न होने वाले कई संभावित आपदा परिदृश्यों को रेखांकित किया है। उनमें से एक एआई का हथियारीकरण, एआई द्वारा उत्पन्न गलत सूचना के माध्यम से समाज का अस्थिरीकरण, और एआई प्रौद्योगिकी पर बढ़ती एकाधिकार नियंत्रण, जिससे व्यापक निगरानी और दमनकारी सेंसरशिप संभव हो जाती है।

कमजोरी की स्थिति का भी उल्लेख किया गया है, जहां मानव एआई पर अत्यधिक निर्भर हो सकते हैं, जैसा कि वॉल-ई फिल्म में चित्रित किया गया है। यह निर्भरता मानवता को कमजोर बना सकती है, जो गंभीर नैतिक और अस्तित्व संबंधी प्रश्न उठाती है।

डॉ. जेफ्री हिंटन, क्षेत्र में एक प्रतिष्ठित व्यक्ति और सुपर-इंटेलिजेंट एआई के प्रति सावधानी के एक मुखर समर्थक, सेंटर की चेतावनी का समर्थन करते हैं, साथ ही मॉन्ट्रियल विश्वविद्यालय में कंप्यूटर विज्ञान के प्रोफेसर योशुआ बेंगियो भी समर्थन करते हैं।

विरोधी स्वर: एआई के संभावित नुकसान पर बहस

इसके विपरीत, एआई समुदाय का एक महत्वपूर्ण हिस्सा मौजूद है जो इन चेतावनियों को अतिरंजित मानता है। एमआईटी के प्रोफेसर और मेटा में एआई शोधकर्ता यान लेक्यून ने इन ‘प्रलय की भविष्यवाणियों’ के साथ अपनी असहमति व्यक्त की है। आलोचकों का तर्क है कि ऐसी विपत्तिपूर्ण भविष्यवाणियां मौजूदा एआई संबंधी मुद्दों, जैसे कि सिस्टम पूर्वाग्रह और नैतिक विचारों से ध्यान भटकाती हैं।

प्रिंसटन विश्वविद्यालय में कंप्यूटर वैज्ञानिक अरविंद नारायण ने सुझाव दिया कि वर्तमान एआई क्षमताएं अक्सर चित्रित की जाने वाली विपत्ति परिदृश्यों से बहुत दूर हैं। उन्होंने तात्कालिक एआई संबंधी हानियों पर ध्यान केंद्रित करने की आवश्यकता पर प्रकाश डाला।

इसी तरह, ऑक्सफोर्ड के इंस्टीट्यूट फॉर एथिक्स इन एआई में वरिष्ठ शोध साथी एलिजाबेथ रेनियरिस ने पक्षपात, भेदभावपूर्ण निर्णय लेने, गलत सूचना के प्रसार और एआई प्रगति के परिणामस्वरूप सामाजिक विभाजन जैसे निकटवर्ती जोखिमों के बारे में चिंताएं साझा कीं। एआई की मानव निर्मित सामग्री से सीखने की प्रवृत्ति ने सार्वजनिक से एक मुट्ठी भर निजी संस्थाओं में धन और शक्ति के हस्तांतरण के बारे में चिंताएं उठाईं।

संतुलन: वर्तमान चिंताओं और भविष्य के जोखिमों के बीच नेविगेट करना

विभिन्न दृष्टिकोणों को स्वीकार करते हुए, सेंटर फॉर एआई सेफ्टी के निदेशक डैन हेंड्रिक्स ने जोर देकर कहा कि वर्तमान मुद्दों को संबोधित करने से भविष्य के जोखिमों को कम करने के लिए एक रोडमैप प्रदान किया जा सकता है। यह एक संतुलन बनाने की खोज है जो एआई की क्षमता का लाभ उठाने और इसके दुरुपयोग को रोकने के लिए सुरक्षा उपायों को स्थापित करने के बीच है।

एआई के अस्तित्व संबंधी खतरे पर बहस नई नहीं है। यह मार्च 2023 में गति पकड़ी जब कई विशेषज्ञों, जिनमें एलोन मस्क भी शामिल थे, ने अगली पीढ़ी की एआई प्रौद्योगिकी के विकास पर रोक लगाने के लिए एक खुला पत्र पर हस्ताक्षर किए। संवाद तब से विकसित हुआ है, हाल की चर्चाओं में परमाणु युद्ध के जोखिम की तुलना में संभावित जोखिम की तुलना की गई है।

आगे का रास्ता: सावधानी और नियामक उपाय

जैसा कि एआई समाज में एक बढ़ती भूमिका निभा रहा है, यह याद रखना आवश्यक है कि प्रौद्योगिकी एक दो-धारी तलवार है। यह प्रगति का वादा करता है लेकिन असीमित होने पर अस्तित्व संबंधी जोखिम भी पैदा करता है। एआई के संभावित खतरे के आसपास की चर्चा नैतिक दिशानिर्देशों को परिभाषित करने, मजबूत सुरक्षा उपायों का निर्माण करने और एआई विकास और उपयोग के लिए एक जिम्मेदार दृष्टिकोण सुनिश्चित करने के लिए वैश्विक सहयोग की आवश्यकता को रेखांकित करती है।

рдПрд▓реЗрдХреНрд╕ рдореИрдХрдлрд╛рд░рд▓реИрдВрдб рдПрдХ рдПрдЖрдИ рдкрддреНрд░рдХрд╛рд░ рдФрд░ рд▓реЗрдЦрдХ рд╣реИрдВ рдЬреЛ рдХреГрддреНрд░рд┐рдо рдмреБрджреНрдзрд┐рдорддреНрддрд╛ рдореЗрдВ рдирд╡реАрдирддрдо рд╡рд┐рдХрд╛рд╕реЛрдВ рдХрд╛ рдЕрдиреНрд╡реЗрд╖рдг рдХрд░ рд░рд╣реЗ рд╣реИрдВред рдЙрдиреНрд╣реЛрдВрдиреЗ рд╡рд┐рд╢реНрд╡рднрд░ рдХреЗ рдХрдИ рдПрдЖрдИ рд╕реНрдЯрд╛рд░реНрдЯрдЕрдкреНрд╕ рдФрд░ рдкреНрд░рдХрд╛рд╢рдиреЛрдВ рдХреЗ рд╕рд╛рде рд╕рд╣рдпреЛрдЧ рдХрд┐рдпрд╛ рд╣реИред

рд╡рд┐рдЬреНрдЮрд╛рдкрди рдкреНрд░рдХрдЯреАрдХрд░рдг: Unite.AI рд╕рдЯреАрдХ рдЬрд╛рдирдХрд╛рд░реА рдФрд░ рд╕рдорд╛рдЪрд╛рд░ рдкреНрд░рджрд╛рди рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдХрдареЛрд░ рд╕рдВрдкрд╛рджрдХреАрдп рдорд╛рдирдХреЛрдВ рдХреЗ рдкреНрд░рддрд┐ рдкреНрд░рддрд┐рдмрджреНрдз рд╣реИред рдЬрдм рдЖрдк рдЙрди рдЙрддреНрдкрд╛рджреЛрдВ рдХреЗ рд▓рд┐рдВрдХ рдкрд░ рдХреНрд▓рд┐рдХ рдХрд░рддреЗ рд╣реИрдВ рдЬрд┐рдирдХреА рд╣рдордиреЗ рд╕рдореАрдХреНрд╖рд╛ рдХреА рд╣реИ, рддреЛ рд╣рдореЗрдВ рдореБрдЖрд╡рдЬрд╛ рдорд┐рд▓ рд╕рдХрддрд╛ рд╣реИред