Connect with us

рд╕реАрдЦрдиреЗ-рдЕрдзрд┐рдХрд╛рд░ рдХреА рджреБрд╡рд┐рдзрд╛: рдЬрдм рдПрдЖрдИ рдПрдЬреЗрдВрдЯ рдХреА рдХреНрд╖рдорддрд╛ рдорд╛рдирд╡ рдкрд░реНрдпрд╡реЗрдХреНрд╖рдг рд╕реЗ рдЕрдзрд┐рдХ рд╣реЛ рдЬрд╛рддреА рд╣реИ рддреЛ рдХреНрдпрд╛ рд╣реЛрддрд╛ рд╣реИ?

рдХреГрддреНрд░рд┐рдо рдмреБрджреНрдзрд┐рдорддреНрддрд╛

рд╕реАрдЦрдиреЗ-рдЕрдзрд┐рдХрд╛рд░ рдХреА рджреБрд╡рд┐рдзрд╛: рдЬрдм рдПрдЖрдИ рдПрдЬреЗрдВрдЯ рдХреА рдХреНрд╖рдорддрд╛ рдорд╛рдирд╡ рдкрд░реНрдпрд╡реЗрдХреНрд╖рдг рд╕реЗ рдЕрдзрд┐рдХ рд╣реЛ рдЬрд╛рддреА рд╣реИ рддреЛ рдХреНрдпрд╛ рд╣реЛрддрд╛ рд╣реИ?

mm

हम कृत्रिम बुद्धिमत्ता में एक महत्वपूर्ण मोड़ पर खड़े हैं। वर्षों से, हमने ऐसे एआई सिस्टम बनाए जो हमारे आदेशों का पालन करते थे। अब, हम ऐसे एआई एजेंट बना रहे हैं जो न केवल आदेशों का पालन करते हैं, बल्कि सीखते हैं, अनुकूलन करते हैं और वास्तविक समय में स्वायत्त निर्णय लेते हैं। ये सिस्टम उपकरणों की भूमिका से प्रतिनिधियों की भूमिका में स्थानांतरित हो रहे हैं। यह परिवर्तन हमें सीखने-अधिकार की दुविधा की ओर ले जाता है। जब एक एआई एजेंट की जानकारी प्रसंस्करण और जटिल कार्यों को निष्पादित करने की क्षमता हमारी अपनी क्षमता से अधिक हो जाती है, और जब यह तैनाती के बाद भी सीखता और विकसित होता रहता है, तो मानव पर्यवेक्षण की बहुत ही अवधारणा जटिल हो जाती है। एक मानव पर्यवेक्षक एक ऐसे सिस्टम द्वारा लिए गए निर्णय की समीक्षा या वीटो कैसे कर सकता है जो एक ऐसे स्तर पर संदर्भ को समझता है जिसे हम समझ नहीं सकते? हम किसी ऐसी चीज़ पर अधिकार कैसे बनाए रख सकते हैं जो डिज़ाइन द्वारा हमसे अधिक चतुर और तेज़ है?

मानव पर्यवेक्षण का टूटना

पारंपरिक रूप से, प्रौद्योगिकी में सुरक्षा एक सरल सिद्धांत पर आधारित थी: मानव-इन-द-लूप। एक मानव ऑपरेटर आउटपुट की समीक्षा करता है, तर्क को मान्य करता है, और ट्रिगर खींचता है। लेकिन एजेंटिक एआई इस मॉडल को तोड़ता है। ये एजेंट डिजिटल वातावरण में लक्ष्यों का पीछा करने के लिए डिज़ाइन किए गए हैं। वे यात्रा की बुकिंग, अनुबंधों पर बातचीत, आपूर्ति श्रृंखला का प्रबंधन कर सकते हैं या यहां तक कि कोड भी लिख सकते हैं।

समस्या केवल गति नहीं है। यह अस्पष्टता है। ये सिस्टम अक्सर बड़े भाषा मॉडल या जटिल प्रबलीकरण सीखने का उपयोग करते हैं। उनके निर्णय लेने के मार्ग आसानी से सरल यदि-तब नियमों में कम नहीं किए जा सकते हैं जिन्हें एक मानव लाइन द्वारा ऑडिट किया जा सकता है। यहां तक कि जिन इंजीनियरों ने सिस्टम बनाए हैं, वे भी यह नहीं समझ सकते हैं कि एक नए स्थिति में एक विशिष्ट कार्रवाई क्यों की गई थी।

यह एक खतरनाक अंतराल की ओर ले जाता है। हम मानवों से उन सिस्टम की देखरेख करने के लिए कहते हैं जिन्हें वे पूरी तरह से समझ नहीं सकते हैं। जब एजेंट “सीख” रहा है और अपनी रणनीतियों को अनुकूलित कर रहा है, तो मानव पर्यवेक्षक परिणामों पर प्रतिक्रिया देने में सक्षम होता है, लेकिन प्रक्रिया में हस्तक्षेप नहीं कर सकता है। हम निर्णयों के दर्शक बन जाते हैं, न कि उन्हें आकार देने वाले।

स्वायत्तता का जाल

ऑक्सफोर्ड विश्वविद्यालय के दार्शनिक फिलिप कोरालस विवरण करते हैं कि यह “एजेंसी-स्वायत्तता की दुविधा” है। यदि हम उन्नत एआई एजेंटों का उपयोग करके एक बढ़ती जटिल दुनिया से निपटने में हमारी मदद नहीं करते हैं, तो हम अप्रभावी होने और अपने नियंत्रण की भावना को खोने का जोखिम उठाते हैं। हम मशीन की प्रसंस्करण शक्ति के साथ प्रतिस्पर्धा नहीं कर सकते हैं।

लेकिन अगर हम उन पर निर्भर करते हैं, तो हम अपनी स्वायत्तता को खोने का जोखिम उठाते हैं। हम कार्यों के अलावा, अपने निर्णय को आउटसोर्स करना शुरू कर देते हैं। एजेंट हमारी जानकारी को फिल्टर करता है, हमारे विकल्पों को प्राथमिकता देता है, और हमें अपने अनुकूलन मॉडल के अनुसार निष्कर्षों की ओर धकेलता है। समय के साथ, इस तरह का डिजिटल प्रभाव हमारे विश्वासों और हमारे विकल्पों को आकार दे सकता है, यहां तक कि हमें इसका एहसास भी नहीं होता है।

खतरा यह है कि ये सिस्टम बहुत उपयोगी हैं और उन्हें नजरअंदाज नहीं किया जा सकता है। वे हमें जटिलता से निपटने में मदद करते हैं जो अभिभूत करने वाली लगती है। लेकिन जैसे ही हम उन पर निर्भर करते हैं, हम धीरे-धीरे उन कौशलों को खो सकते हैं जो हमें उन्हें मार्गदर्शन और नियंत्रण करने की आवश्यकता है, जैसे कि महत्वपूर्ण सोच, नैतिक निर्णय, और संदर्भ की जागरूकता।

जिम्मेदारी-क्षमता विरोधाभास

हाल के शोध में “जिम्मेदारी-क्षमता विरोधाभास” की अवधारणा पेश की गई है। यह दुविधा का मूल है। जितना अधिक एक एआई क्षमतावान होता है, उतने ही अधिक कार्यों को हम उसे सौंपते हैं। जितने अधिक कार्यों को हम उसे सौंपते हैं, उतनी ही कम हम उन कौशलों का अभ्यास करते हैं। जितना कम हम उन कौशलों का अभ्यास करते हैं, उतना ही कठिन यह होता है कि हम यह निर्धारित करें कि एआई अच्छा प्रदर्शन कर रहा है या नहीं। हमारी प्रणाली को जिम्मेदार ठहराने की क्षमता सीधे प्रणाली की क्षमता के अनुपात में कम होती जाती है।

यह एक निर्भरता का चक्र बनाता है। हम एआई पर भरोसा करते हैं क्योंकि यह आमतौर पर सही होता है। लेकिन चूंकि हम उस पर भरोसा करते हैं, हम इसकी जांच बंद कर देते हैं। जब यह अंततः एक गलती करता है, और यह करता है क्योंकि सभी प्रणालियां विफल होती हैं, तो हम इसे पकड़ने के लिए तैयार नहीं होते हैं। हमारे पास “स्थितिजन्य जागरूकता” नहीं है कि हम वापस आ जाएं और नियंत्रण ले लें।

यह विशेष रूप से उच्च जोखिम वाले क्षेत्रों में, जैसे कि सार्वजनिक स्वास्थ्य या वित्तीय बाजारों में, खतरनाक है। एक एआई एजेंट एक अप्रत्याशित मार्ग पर जा सकता है जो गंभीर नुकसान का कारण बनता है। जब ऐसा होता है, तो मानव पर्यवेक्षक अभी भी एक ऐसे निर्णय के लिए जिम्मेदार होता है जिसे उसने नहीं बनाया और जिसकी उसने भविष्यवाणी नहीं की थी। मशीन कार्य करती है, लेकिन मानव मूल्य चुकाता है।

“नड्ज” की सीमाएं और “सोक्रेटिक” डिजाइन की आवश्यकता

वर्तमान में कई सिस्टम “नड्ज” दर्शन पर आधारित हैं। वे उपयोगकर्ता व्यवहार को एल्गोरिदम द्वारा पाए गए सर्वोत्तम विकल्प की ओर मोड़ने का प्रयास करते हैं। लेकिन जब एजेंट सुझाव देने से करने में बदल जाता है, तो यह नड्जिंग कुछ और शक्तिशाली बन जाता है। यह वास्तविकता के लिए एक डिफ़ॉल्ट सेटिंग बन जाता है।

सीखने-अधिकार की दुविधा को हल करने के लिए, हमें उन एजेंटों को डिज़ाइन करना बंद करना होगा जो केवल उत्तर देते हैं। इसके बजाय, हमें ऐसे एजेंट बनाने चाहिए जो प्रश्न, प्रतिबिंब और निरंतर समझ को प्रोत्साहित करते हैं। कोरालस इसे एआई में “दार्शनिक मोड़” कहते हैं। एक एजेंट जो केवल एक कार्य को पूरा करने के लिए एक लूप बंद करता है, इसके बजाय एक एजेंट जो एक लूप खोलता है जो स्पष्ट करने वाले प्रश्न पूछता है।

यह सोक्रेटिक एआई न केवल “सर्वोत्तम उड़ान” बुक करने का निर्देश देगा। यह उपयोगकर्ता के साथ संवाद में संलग्न होगा। यह पूछेगा, “आपने इस उड़ान को चुना क्योंकि इसकी कीमत कम थी, लेकिन यह आपकी यात्रा में छह घंटे जोड़ता है। क्या आप आज लागत के ऊपर समय को महत्व देते हैं?” यह मानवों को तर्क प्रक्रिया में शामिल रखने के लिए मजबूर करता है।

प्रॉम्प्ट और क्रिया के बीच संज्ञानात्मक विलंब को बनाए रखने से, हम अपने सोचने की क्षमता की रक्षा करते हैं। हम मानव निर्णय के “गैर-प्रतिनिधि कोर” को बनाए रखते हैं। अधिक महत्वपूर्ण बात यह है कि हमें मूल्यों, नैतिकता या अज्ञात जोखिमों से संबंधित निर्णयों को एआई को सौंपना नहीं चाहिए।

शासन बुनियादी ढांचे का निर्माण

दुविधा का समाधान करना न केवल एक डिज़ाइन दर्शन है, बल्कि यह कठिन बुनियादी ढांचे की आवश्यकता है। हम अच्छे इरादों या पोस्ट-हॉक ऑडिट पर भरोसा नहीं कर सकते हैं। हमें तकनीकी प्रवर्तन की आवश्यकता है।

एक आशाजनक दिशा “सेंटिनेल” प्रणाली या एआई व्यवहार की निगरानी करने वाली एक बाहरी पर्यवेक्षण परत की अवधारणा है। यह एक मानव एक स्क्रीन देख रहा है नहीं है, लेकिन एक और एआई, एक पर्यवेक्षक एल्गोरिदम, जो वास्तविक समय में असामान्यताओं, नीति उल्लंघनों या आत्मविश्वास में गिरावट की तलाश करता है। जब यह एक समस्या का पता लगाता है, तो यह एक मानव को सौंपने के लिए एक हार्ड हैंडओफ़ ट्रिगर कर सकता है।

इसके लिए “नियंत्रण” बनाम “पर्यवेक्षण” सीमाओं को परिभाषित करना आवश्यक है। नियंत्रण वास्तविक समय में एक क्रिया को रोकने की वास्तविक क्षमता है। पर्यवेक्षण आफ्टर-द-फैक्ट लॉग की समीक्षा करने की क्षमता है। वास्तव में स्वायत्त एजेंटों के लिए, मानवों द्वारा वास्तविक समय नियंत्रण अक्सर असंभव होता है। इसलिए, हमें ऐसे सिस्टम बनाने होंगे जिनमें हार्ड स्टॉप हों। उदाहरण के लिए, एक उच्च जोखिम वाले क्षेत्र में संचालित एक एजेंट में एक “किल स्विच” आर्किटेक्चर होना चाहिए। यदि एजेंट का अपना आत्मविश्वास एक सीमा से नीचे गिर जाता है, या यदि यह एक ऐसे परिदृश्य का सामना करता है जिस पर यह प्रशिक्षित नहीं किया गया है, तो यह रुक जाना चाहिए और निर्देशों की प्रतीक्षा करनी चाहिए।

इसके अलावा, हमें एक संघीय दृष्टिकोण की आवश्यकता है शासन की। एक एकल, एकल मॉडल के बजाय जो सच्चाई को निर्धारित करता है, हम विभिन्न एजेंटों के एक समूह का उपयोग कर सकते हैं जो एक दूसरे को पार-मान्य करते हैं। विकेंद्रीकृत सत्य-खोज का अर्थ है कि कोई एकल एआई अंतिम शब्द नहीं है। यदि दो एजेंट असहमत हैं, तो यह संघर्ष मानव हस्तक्षेप के लिए एक संकेत है।

नीचे की रेखा

जैसे ही हम वास्तव में स्वायत्त प्रणालियों के किनारे पर खड़े होते हैं, हमें यह याद रखना होगा कि बुद्धिमत्ता केवल जानने के बारे में नहीं है। यह विवेक के बारे में है। यह दो विरोधाभासी विचारों को पकड़ने और फिर भी एक निर्णय लेने के बारे में है। यह एक मानव कौशल है। यदि हम इसे प्रतिनिधित्व देते हैं, तो हम न केवल अपनी मशीनों पर नियंत्रण खो देते हैं, हम खुद पर नियंत्रण खो देते हैं।

рдбреЙ. рддрд╣рд╕реАрди рдЬрд╝рд┐рдпрд╛ рдХреЛрдореНрд╕реИрдЯреНрд╕ рдпреВрдирд┐рд╡рд░реНрд╕рд┐рдЯреА рдЗрд╕реНрд▓рд╛рдорд╛рдмрд╛рдж рдореЗрдВ рдПрдХ рдЯреЗрдиреНрдпреЛрд░реНрдб рдПрд╕реЛрд╕рд┐рдПрдЯ рдкреНрд░реЛрдлреЗрд╕рд░ рд╣реИрдВ, рдЬреЛ рдСрд╕реНрдЯреНрд░рд┐рдпрд╛ рдХреА рд╡рд┐рдпрдирд╛ рдЯреЗрдХреНрдиреЛрд▓реЙрдЬреА рдпреВрдирд┐рд╡рд░реНрд╕рд┐рдЯреА рд╕реЗ рдПрдЖрдИ рдореЗрдВ рдкреАрдПрдЪрдбреА рд░рдЦрддреЗ рд╣реИрдВред рдЖрд░реНрдЯрд┐рдлрд┐рд╢рд┐рдпрд▓ рдЗрдВрдЯреЗрд▓рд┐рдЬреЗрдВрд╕, рдорд╢реАрди рд▓рд░реНрдирд┐рдВрдЧ, рдбреЗрдЯрд╛ рд╕рд╛рдЗрдВрд╕ рдФрд░ рдХрдВрдкреНрдпреВрдЯрд░ рд╡рд┐рдЬрди рдореЗрдВ рд╡рд┐рд╢реЗрд╖рдЬреНрдЮрддрд╛, рдЙрдиреНрд╣реЛрдВрдиреЗ рдкреНрд░рддрд┐рд╖реНрдард┐рдд рд╡реИрдЬреНрдЮрд╛рдирд┐рдХ рдкрддреНрд░рд┐рдХрд╛рдУрдВ рдореЗрдВ рдкреНрд░рдХрд╛рд╢рди рдХреЗ рд╕рд╛рде рдорд╣рддреНрд╡рдкреВрд░реНрдг рдпреЛрдЧрджрд╛рди рджрд┐рдпрд╛ рд╣реИред рдбреЙ. рддрд╣рд╕реАрди рдиреЗ рдкреНрд░рд┐рдВрд╕рд┐рдкрд▓ рдЗрдиреНрд╡реЗрд╕реНрдЯрд┐рдЧреЗрдЯрд░ рдХреЗ рд░реВрдк рдореЗрдВ рд╡рд┐рднрд┐рдиреНрди рдФрджреНрдпреЛрдЧрд┐рдХ рдкрд░рд┐рдпреЛрдЬрдирд╛рдУрдВ рдХрд╛ рдиреЗрддреГрддреНрд╡ рдХрд┐рдпрд╛ рд╣реИ рдФрд░ рдПрдХ рдПрдЖрдИ рд╕рд▓рд╛рд╣рдХрд╛рд░ рдХреЗ рд░реВрдк рдореЗрдВ рдХрд╛рд░реНрдп рдХрд┐рдпрд╛ рд╣реИред