विचारक नेता
उन्नत एआई प्रौद्योगिकियाँ नैतिक चुनौतियाँ प्रस्तुत करती हैं - विचारशील नेता
अल्फ्रेड क्रूज़, जूनियर द्वारा इंटेलिजेंस और सुरक्षा क्षेत्र के उपाध्यक्ष और मुख्य वकील बीएई सिस्टम्स इंक.
इस साल की शुरुआत में, वैश्विक महामारी से पहले, मैंने चार्ल्सटन में द सिटाडेल के इंटेलिजेंस एथिक्स सम्मेलन में भाग लिया, जहां हमने खुफिया संग्रह में नैतिकता के विषय पर चर्चा की क्योंकि यह राष्ट्रीय सुरक्षा की रक्षा से संबंधित है। रक्षा उद्योग में, हम ज्ञान, कंप्यूटिंग और उन्नत प्रौद्योगिकियों का प्रसार देख रहे हैं, विशेष रूप से कृत्रिम बुद्धिमत्ता (एआई) और मशीन लर्निंग (एमएल) के क्षेत्र में। हालाँकि, खुफिया जानकारी एकत्र करने या वास्तविक समय की लड़ाई के संदर्भ में एआई को तैनात करते समय महत्वपूर्ण मुद्दे हो सकते हैं।
क्वांटम कंप्यूटिंग के साथ एआई जोखिम प्रस्तुत करता है
युद्ध के समय निर्णय लेने की प्रक्रिया में क्वांटम कंप्यूटिंग क्षमताओं के साथ एआई का उपयोग करते समय हमें आगे बढ़ने के लिए सवाल, विश्लेषण और निर्धारण करना चाहिए। उदाहरण के लिए, टर्मिनेटर याद है? जैसे-जैसे हमारी तकनीक छलांग लगाती जा रही है, स्काईनेट ने जो प्रस्तुत किया उसकी वास्तविकता हमारे सामने है। हम खुद से पूछ सकते हैं, "क्या स्काईनेट हमें लेने आ रहा है?" मेरे साथ यादों की गलियों में टहलें; एआई मशीनों ने इस पर कब्ज़ा कर लिया क्योंकि उनमें किसी इंसान के निर्देशन के बिना, स्वयं सोचने और निर्णय लेने की क्षमता थी। जब मशीनों ने यह निष्कर्ष निकाला कि मनुष्य एक बग है, तो वे मानव जाति को नष्ट करने के लिए निकल पड़े। मुझे गलत मत समझिए, एआई में काफी संभावनाएं हैं, लेकिन मेरा मानना है कि जोखिम कारक के कारण इसमें नियंत्रण पैरामीटर होने चाहिए।
एआई की नैतिक अस्पष्टताएं और दार्शनिक दुविधा
मेरा मानना है कि यही कारण है कि अमेरिकी रक्षा विभाग (डीओडी) ने अपना खुद का जारी किया एआई के लिए नैतिक सिद्धांत, क्योंकि एआई का उपयोग नई नैतिक अस्पष्टताएं और जोखिम उठाता है। जब एआई को क्वांटम कंप्यूटिंग क्षमताओं के साथ जोड़ा जाता है, तो निर्णय लेने की क्षमता बदल जाती है और नियंत्रण खोने का जोखिम बढ़ जाता है - जितना हम आज महसूस कर सकते हैं उससे कहीं अधिक। क्वांटम कंप्यूटिंग हमारे मानव मस्तिष्क के ऑपरेटिंग सिस्टम को शर्मिंदा करती है क्योंकि सुपर कंप्यूटर हमारे मानव मस्तिष्क की तुलना में कहीं अधिक तेजी से और अधिक सटीकता के साथ गणना कर सकते हैं।
इसके अतिरिक्त, कंप्यूटिंग के साथ एआई का उपयोग एक दार्शनिक दुविधा प्रस्तुत करता है। किस बिंदु पर दुनिया मशीनों को अपनी इच्छा रखने की अनुमति देगी; और, यदि मशीनों को स्वयं सोचने की अनुमति दी जाती है, तो क्या इसका मतलब यह है कि मशीन स्वयं जागरूक हो गई है? क्या आत्म-जागरूक होना ही जीवन है? एक समाज के रूप में, हमने अभी तक यह तय नहीं किया है कि इस स्थिति को कैसे परिभाषित किया जाए। इस प्रकार, जैसा कि आज स्थिति है, मानव नियंत्रण के बिना मशीनें स्वयं कार्रवाई करती हैं, जिसके परिणाम हो सकते हैं। क्या कोई मशीन आग रोकने के लिए इंसान के हस्तक्षेप को खत्म कर सकती है? यदि मशीन अपने आप चल रही है, तो क्या हम प्लग खींच पाएंगे?
जैसा कि मैंने देखा, रक्षात्मक दृष्टिकोण से एआई का उपयोग करना आसान है। हालाँकि, इसे आक्रामक में स्थानांतरित करना कितना आसान होगा? अपराध होने पर, मशीनें मौके पर ही युद्ध फायरिंग के निर्णय लेंगी। क्या किसी मशीन से दुश्मन को मार गिराने से जिनेवा कन्वेंशन और सशस्त्र संघर्ष के कानूनों का उल्लंघन होगा? इस क्षेत्र में तीव्र गति से आगे बढ़ते हुए, दुनिया को इस बात पर सहमत होना चाहिए कि युद्ध में एआई और क्वांटम कंप्यूटिंग का उपयोग उन कानूनों में होना चाहिए जो हमारे पास वर्तमान में मौजूद हैं।
स्वायत्त प्रणालियों के साथ एआई का उपयोग करते समय डीओडी की एक स्थिति होती है और कहा जाता है कि निर्णय लेने की प्रक्रिया में हमेशा एक व्यक्ति लगा रहेगा; एक व्यक्ति हथियार चलाने के लिए ट्रिगर खींचने पर अंतिम निर्णय लेगा। यह हमारा नियम है, लेकिन अगर कोई प्रतिद्वंद्वी दूसरा रास्ता अपनाने का फैसला करता है और एआई-सक्षम मशीन सभी अंतिम निर्णय लेती है तो क्या होता है? तब मशीन, जो, जैसा कि हमने चर्चा की, पहले से ही तेज़, स्मार्ट और अधिक सटीक है, को फायदा होगा।
आइए एआई और चेहरे की पहचान से लैस ड्रोन पर नजर डालें: आतंकवादी के रूप में लेबल किए गए पूर्व-निर्धारित लक्ष्य के कारण ड्रोन अपनी इच्छा से गोली चलाता है। गोलीबारी के लिए असल में कौन जिम्मेदार है? पक्षपातपूर्ण गलती होने पर क्या कोई जवाबदेही है?
एआई/एमएल में पूर्वाग्रह व्याप्त है
शोध इस तथ्य की ओर इशारा करता है कि इंसान की तुलना में मशीन से गलतियाँ होने की संभावना कम होती है। हालाँकि, शोध यह भी साबित करता है कि मशीन सीखने में मानव "शिक्षक" द्वारा मशीन को पढ़ाने के आधार पर पूर्वाग्रह हैं। डीओडी के एआई के पांच नैतिक सिद्धांतों में मौजूदा पूर्वाग्रहों का संदर्भ दिया गया है, जब यह कहा गया है, "विभाग एआई क्षमताओं में अनपेक्षित पूर्वाग्रह को कम करने के लिए जानबूझकर कदम उठाएगा।" हम पहले से ही जानते हैं सिद्ध अध्ययन चेहरे की पहचान करने वाले अनुप्रयोगों के उपयोग में झूठी सकारात्मकता वाले रंगीन लोगों के प्रति पूर्वाग्रह होता है। जब कोई व्यक्ति वह कोड बनाता है जो मशीन को निर्णय लेना सिखाता है, तो पूर्वाग्रह होंगे। यह अनजाने में हो सकता है क्योंकि एआई बनाने वाले व्यक्ति को अपने भीतर मौजूद पूर्वाग्रह के बारे में पता नहीं था।
तो, कोई पूर्वाग्रह को कैसे ख़त्म कर सकता है? एआई आउटपुट केवल इनपुट जितना ही अच्छा है। इसलिए, नियंत्रण होना चाहिए। आपको आने वाले डेटा को नियंत्रित करना होगा क्योंकि यही एआई परिणामों को कम वैध बना सकता है। पूर्वाग्रह को खत्म करने के लिए डेवलपर्स को लगातार कोड को फिर से लिखना होगा।
प्रौद्योगिकी के सर्वोत्तम उपयोग को परिभाषित करने वाली दुनिया
प्रौद्योगिकी अपने आप में अच्छी या बुरी नहीं है। यह इस प्रकार है कि एक राष्ट्र इसका उपयोग करता है जो सर्वोत्तम इरादों को प्राप्त कर सकता है और गलत हो सकता है। जैसे-जैसे प्रौद्योगिकी मानव जीवन को प्रभावित करने वाले तरीकों में आगे बढ़ती है, दुनिया को उचित कार्रवाई को परिभाषित करने के लिए मिलकर काम करना चाहिए। यदि हम एआई अनुप्रयोगों में मानव को समीकरण से बाहर निकालते हैं, तो हम ट्रिगर खींचने से पहले वह विराम भी लेते हैं - वह नैतिक दिशा-निर्देश जो हमारा मार्गदर्शन करता है; वह विराम तब होता है जब हम रुकते हैं और सवाल करते हैं, "क्या यह सही है?" संलग्न करना सिखाई गई मशीन में वह ठहराव नहीं होगा। तो, सवाल यह है कि क्या भविष्य में दुनिया इसके लिए खड़ी होगी? मशीनों को युद्ध संबंधी निर्णय लेने की अनुमति देने के लिए दुनिया कितनी दूर तक जाएगी?