рд╡рд┐рдЪрд╛рд░ рдиреЗрддрд╛
рдорд╛рдирд╡-рдЗрди-рдж-рд▓реВрдк рд╡рд╛рд╕реНрддрд╡ рдореЗрдВ рдХреНрдпрд╛ рдЕрд░реНрде рд░рдЦрддрд╛ рд╣реИ?

20वीं शताब्दी के प्रारंभ में, ब्रिटिश दार्शनिक गिल्बर्ट राइल ने “मशीन में भूत” शब्द का प्रयोग किया। द कॉन्सेप्ट ऑफ माइंड में लिखते हुए, राइल ने इस रूपक का उपयोग मन-शरीर द्वैतवाद के खिलाफ प्रतिक्रिया करने के लिए किया, जो यह मानता है कि मन और शरीर अलग-अलग पदार्थ के रूप में अस्तित्व में हैं। राइल के लिए, यह विभाजन एक गलती थी क्योंकि संज्ञान और शारीरिक क्रिया अविभाज्य थे, एक ही प्रणाली का हिस्सा थे, न कि दो परस्पर क्रिया करने वाले भाग।
एआई के आगमन के साथ, एक समान रूपक अब उभर रहा है जब एआई टूल्स का उपयोग करके उत्पादकता बढ़ाने वाले उपयोगकर्ताओं की बात की जा रही है: अक्सर उपयोग किया जाने वाला “मानव-इन-द-लूप”। यदि मानव और बुद्धिमान प्रणालियाँ अब पहले से अधिक एकजुट हो गई हैं, तो क्या हम एक निर्बाध संलयन बना रहे हैं या नियंत्रण का एक सुविधाजनक भ्रम पैदा कर रहे हैं?
स्टार्टअप्स इस अवधारणा पर भारी भरोसा करते हैं जब अपने टूल्स की बात करते हैं। जबकि यह नवाचार और आश्वासन का वादा करता है, वास्तविकता अक्सर अधिक जटिल होती है। जिम्मेदारी आसानी से धुंधली हो सकती है और जवाबदेही का पता लगाना मुश्किल हो सकता है।
जैसे ही एआई प्रणालियाँ शिक्षा से लेकर युद्ध तक संवेदनशील क्षेत्रों में गहराई से जाती हैं, दांव अब अमूर्त नहीं हैं। मानव-इन-द-लूप वास्तव में क्या अर्थ रखता है और क्या यह केवल एक यूफेमिज्म है जब वे पूरी तरह से गायब हो जाते हैं?
1. मानव-इन-द-लूप जिम्मेदारी के लिए एक ढाल के रूप में
लापरवाही से उपयोग किए जाने पर, मानव-इन-द-लूप शब्द जिम्मेदारी को स्थानांतरित करने का एक आसान तरीका हो सकता है बिना वास्तव में इसके साथ जुड़े। जैसा कि कई लोगों ने देखा है, एक प्रक्रिया के अंत में एक मानव हस्ताक्षर नैतिक अखंडता की गारंटी नहीं देता है, खासकर यदि अंतर्निहित प्रणाली खराब तरीके से डिज़ाइन की गई है या पर्याप्त रूप से समझी नहीं गई है।
स्केल एक्स के संस्थापक और सीईओ मaysa हावाश ने लिखा है जिम्मेदारी से दूर जाने के बारे में और इस तरह से अवधारणा के अक्सर उपयोग के बारे में स्पष्ट है। “यह वास्तव में अन्य तरीकों से बोझ स्थानांतरण से बहुत अलग नहीं है,” हावाश ने स्टार्टअप बीट को बताया, एचआर प्रबंधकों के उदाहरण का उपयोग कैसे करते हैं एक हस्ताक्षर नीति कंपनी को दायित्व से दूर ले जाने के लिए। “यदि आपके पास यह नीति है और लोग इसे पढ़ते हैं और हस्ताक्षर करते हैं, तो कंपनी के रूप में, तकनीकी रूप से आप दायित्व से मुक्त हैं, सही?” उसने कहा।
जो बात सामने आती है वह एक पैटर्न है जो कॉर्पोरेट प्रणालियों में परिचित है, जहां जिम्मेदारी को विस्थापित किया जाता है, न कि समाप्त किया जाता है। हावाश इसे आलसी तरीके से देखता है जो महत्वपूर्ण सोच या समझने से बचता है कि यह क्षेत्रों में कैसे प्रभावित कर सकता है जहां यह लोगों या समुदायों को प्रभावित कर सकता है। “तो आप बोझ को स्थानांतरित कर रहे हैं, और फिर यह नहीं मायने रखता कि लोग नीति को समझते हैं, यह नहीं मायने रखता कि नीति मायने रखती है या नहीं।”
इस फ्रेमिंग में, “मानव-इन-द-लूप” जोखिम में है जो अर्थपूर्ण हस्तक्षेप के बारे में कम और प्रक्रियात्मक कवर के बारे में अधिक हो जाता है। यहाँ खतरा केवल शब्दावली नहीं है। जब निगरानी को एक हस्ताक्षर तक कम किया जाता है, तो मानव भूमिका प्रतीकात्मक हो जाती है, वास्तविक नहीं।
हावाश संदर्भित एक हालिया सैन्य अत्याचार—इरान में मिनाब के स्कूल—जहां मानवों ने एक हमले को मंजूरी दी, लेकिन मानव निर्णय लेने वाले की उपस्थिति ने आवश्यक रूप से नैतिक स्पष्टता या पर्याप्त विचार-विमर्श को नहीं दर्शाया। “जब आप युद्ध में हैं या जटिल सर्जरी कर रहे हैं, तो आपके पास मानव-इन-द-लूप को ढाल के रूप में उपयोग करने का समय नहीं है।”
2. जिम्मेदारी के लिए डिज़ाइनिंग, न कि केवल निगरानी के लिए
विकल्प मानव-इन-द-लूप प्रणालियों को त्यागने के लिए नहीं है, लेकिन उन्हें गंभीरता से डिज़ाइन प्रतिबद्धता के रूप में लेना है। इसका अर्थ है प्रतीकात्मक निगरानी की ओर से जानबूझकर जिम्मेदारी संरचनाओं की ओर बढ़ना।
“एआई को बाजार में अधिक तेजी से प्राप्त करने की यह बड़ी दौड़ है। डिज़ाइन के दृष्टिकोण से बहुत अधिक सोचा नहीं जा रहा है, जैसे कि यह समुदायों, लोगों या अंतिम उपयोगकर्ताओं पर डाउनस्ट्रीम प्रभाव क्या है,” हावाश ने कहा।
गति अब प्रमुख प्रतिस्पर्धी चर बन गई है। उस दौड़ में, जिम्मेदारी अक्सर स्थगित की जाती है, न कि एम्बेड की जाती है। परिणाम एक प्रतिक्रियात्मक मॉडल है जहां नैतिकता के मुद्दों को तैनाती के बाद ठीक किया जाता है, न कि विकास के दौरान उन्हें आगे बढ़ाया जाता है।
अभिगम्यता अपनाया जा सकती है, लेकिन यह परिणामों को भी बढ़ाती है। प्रणालियाँ अब तकनीकी उपयोगकर्ताओं तक सीमित नहीं हैं, क्योंकि वे विभिन्न स्तरों की समझ और संदर्भ वाले लोगों के लिए निर्णय बना सकती हैं। ऐसे वातावरण में, जिम्मेदारी को अंतिम उपयोगकर्ता को आउटसोर्स नहीं किया जा सकता है।
3. मानव-इन-द-लूप सटीकता और जवाबदेही के रूप में
फ्रिज़ल के सह-संस्थापक अभय गुप्ता एक अधिक परिचालन दृष्टिकोण प्रदान करते हैं – एक ऐसा जो एक प्रणाली बनाने में निहित है जहां मानव निगरानी व्यावहारिक और आवश्यक है।
उनकी कंपनी एक विशिष्ट समस्या से उत्पन्न हुई: अधिक काम करने वाले शिक्षक। “शहर में आप बैंकरों और परामर्शदाताओं के बारे में सुनते हैं जो 70 घंटे काम करते हैं, लेकिन आप शिक्षकों के बारे में नहीं सुनते जो इतना काम करते हैं। इसलिए, जिज्ञासा से, हमने सैकड़ों शिक्षकों से साक्षात्कार किया और पूरे बोर्ड में ग्रेडिंग उनका सबसे बड़ा समय सिंक था।”
ग्रेडिंग को स्वचालित करना सीधा लगता है, लेकिन हस्तलिखित गणित में जटिलता वास्तविक सीमाएं पेश करती है एआई के लिए। “सटीकता का मुद्दा है। एआई परिपूर्ण नहीं है, इसलिए हमने एक मानव-इन-द-लूप प्रणाली बनाई। यदि एआई आत्मविश्वास नहीं है – जैसे कि गंदे हस्तलेखन के साथ – तो यह शिक्षक को समीक्षा और अनुमोदन या अस्वीकार करने के लिए झंडा दिखाता है।”
यहाँ, मानव भूमिका केवल अलंकारिक नहीं है। प्रणाली वास्तव में अपनी अनिश्चितता की पहचान करती है और उन मामलों को मानव को रूट करती है। “हमारे लिए यह सटीकता के बारे में है। एआई 100% सटीक नहीं है – यह हॉलुसिनेट या गलत आउटपुट उत्पन्न कर सकता है। मानव-इन-द-लूप अंतिम गुणवत्ता जांच के रूप में कार्य करता है इससे पहले कि परिणाम अंतिम उपयोगकर्ता तक पहुंचे। यह जिम्मेदारी के बारे में भी है। किसी को आउटपुट के लिए जवाबदेह होना चाहिए, और अभी भी यह एक मानव होना चाहिए।”
महत्वपूर्ण रूप से, मानव भूमिका भी कुछ कम मात्रात्मक को संरक्षित करती है: शिक्षण का संबंधित पहलू। “यह शिक्षण के मानव पक्ष को संरक्षित करने के बारे में भी है। शिक्षकों की अलग-अलग शैलियाँ होती हैं, इसलिए हम उन्हें फीडबैक कैसे दिया जाए, इसे कस्टमाइज़ करने देते हैं”
मानव-इन-द-लूप को पुनः परिभाषित करना
“मानव-इन-द-लूप” शब्द एक संतोषजनक सरलता लाता है। यह सुझाव देता है कि चाहे हमारी प्रणालियाँ कितनी भी उन्नत क्यों न हों, एक मानव नियंत्रण में रहता है और हम केवल “मशीन में भूत” नहीं हैं। लेकिन जैसे ही स्टार्टअप उच्च जोखिम वाले वातावरण में एआई को तैनात करते हैं, यह आश्वासन जांच की मांग करता है।
गहरा मुद्दा डिज़ाइन है। यदि एक प्रणाली के जोखिमों को खराब तरीके से समझा जाता है या जानबूझकर कम किया जाता है, तो अंत में एक मानव को डालने से मूलभूत दोषों को ठीक नहीं किया जा सकता है। महत्वपूर्ण रूप से, यह भी意味ता है कि मानव की भूमिका को एक फॉलबैक के रूप में नहीं, बल्कि प्रणाली के संचालन के एक अभिन्न अंग के रूप में परिभाषित करना। मानव-इन-द-लूप को केवल परिणाम की मंजूरी नहीं देनी चाहिए। स्टार्टअप्स को अपने कर्मचारियों को परिणामों को आकार देने, उन्हें चुनौती देने और जब आवश्यक हो तो उन्हें अधिकार के साथ ओवरराइड करने के लिए सशक्त बनाना चाहिए।












