Connect with us

рдорд╛рдирд╡-рдЗрди-рдж-рд▓реВрдк рд╡рд╛рд╕реНрддрд╡ рдореЗрдВ рдХреНрдпрд╛ рдЕрд░реНрде рд░рдЦрддрд╛ рд╣реИ?

рд╡рд┐рдЪрд╛рд░ рдиреЗрддрд╛

рдорд╛рдирд╡-рдЗрди-рдж-рд▓реВрдк рд╡рд╛рд╕реНрддрд╡ рдореЗрдВ рдХреНрдпрд╛ рдЕрд░реНрде рд░рдЦрддрд╛ рд╣реИ?

mm

20वीं शताब्दी के प्रारंभ में, ब्रिटिश दार्शनिक गिल्बर्ट राइल ने “मशीन में भूत” शब्द का प्रयोग किया। द कॉन्सेप्ट ऑफ माइंड में लिखते हुए, राइल ने इस रूपक का उपयोग मन-शरीर द्वैतवाद के खिलाफ प्रतिक्रिया करने के लिए किया, जो यह मानता है कि मन और शरीर अलग-अलग पदार्थ के रूप में अस्तित्व में हैं। राइल के लिए, यह विभाजन एक गलती थी क्योंकि संज्ञान और शारीरिक क्रिया अविभाज्य थे, एक ही प्रणाली का हिस्सा थे, न कि दो परस्पर क्रिया करने वाले भाग।

एआई के आगमन के साथ, एक समान रूपक अब उभर रहा है जब एआई टूल्स का उपयोग करके उत्पादकता बढ़ाने वाले उपयोगकर्ताओं की बात की जा रही है: अक्सर उपयोग किया जाने वाला “मानव-इन-द-लूप”। यदि मानव और बुद्धिमान प्रणालियाँ अब पहले से अधिक एकजुट हो गई हैं, तो क्या हम एक निर्बाध संलयन बना रहे हैं या नियंत्रण का एक सुविधाजनक भ्रम पैदा कर रहे हैं?

स्टार्टअप्स इस अवधारणा पर भारी भरोसा करते हैं जब अपने टूल्स की बात करते हैं। जबकि यह नवाचार और आश्वासन का वादा करता है, वास्तविकता अक्सर अधिक जटिल होती है। जिम्मेदारी आसानी से धुंधली हो सकती है और जवाबदेही का पता लगाना मुश्किल हो सकता है।

जैसे ही एआई प्रणालियाँ शिक्षा से लेकर युद्ध तक संवेदनशील क्षेत्रों में गहराई से जाती हैं, दांव अब अमूर्त नहीं हैं। मानव-इन-द-लूप वास्तव में क्या अर्थ रखता है और क्या यह केवल एक यूफेमिज्म है जब वे पूरी तरह से गायब हो जाते हैं?

1. मानव-इन-द-लूप जिम्मेदारी के लिए एक ढाल के रूप में

लापरवाही से उपयोग किए जाने पर, मानव-इन-द-लूप शब्द जिम्मेदारी को स्थानांतरित करने का एक आसान तरीका हो सकता है बिना वास्तव में इसके साथ जुड़े। जैसा कि कई लोगों ने देखा है, एक प्रक्रिया के अंत में एक मानव हस्ताक्षर नैतिक अखंडता की गारंटी नहीं देता है, खासकर यदि अंतर्निहित प्रणाली खराब तरीके से डिज़ाइन की गई है या पर्याप्त रूप से समझी नहीं गई है।

स्केल एक्स के संस्थापक और सीईओ मaysa हावाश ने लिखा है जिम्मेदारी से दूर जाने के बारे में और इस तरह से अवधारणा के अक्सर उपयोग के बारे में स्पष्ट है। “यह वास्तव में अन्य तरीकों से बोझ स्थानांतरण से बहुत अलग नहीं है,” हावाश ने स्टार्टअप बीट को बताया, एचआर प्रबंधकों के उदाहरण का उपयोग कैसे करते हैं एक हस्ताक्षर नीति कंपनी को दायित्व से दूर ले जाने के लिए। “यदि आपके पास यह नीति है और लोग इसे पढ़ते हैं और हस्ताक्षर करते हैं, तो कंपनी के रूप में, तकनीकी रूप से आप दायित्व से मुक्त हैं, सही?” उसने कहा।

जो बात सामने आती है वह एक पैटर्न है जो कॉर्पोरेट प्रणालियों में परिचित है, जहां जिम्मेदारी को विस्थापित किया जाता है, न कि समाप्त किया जाता है। हावाश इसे आलसी तरीके से देखता है जो महत्वपूर्ण सोच या समझने से बचता है कि यह क्षेत्रों में कैसे प्रभावित कर सकता है जहां यह लोगों या समुदायों को प्रभावित कर सकता है। “तो आप बोझ को स्थानांतरित कर रहे हैं, और फिर यह नहीं मायने रखता कि लोग नीति को समझते हैं, यह नहीं मायने रखता कि नीति मायने रखती है या नहीं।”

इस फ्रेमिंग में, “मानव-इन-द-लूप” जोखिम में है जो अर्थपूर्ण हस्तक्षेप के बारे में कम और प्रक्रियात्मक कवर के बारे में अधिक हो जाता है। यहाँ खतरा केवल शब्दावली नहीं है। जब निगरानी को एक हस्ताक्षर तक कम किया जाता है, तो मानव भूमिका प्रतीकात्मक हो जाती है, वास्तविक नहीं।

हावाश संदर्भित एक हालिया सैन्य अत्याचार—इरान में मिनाब के स्कूल—जहां मानवों ने एक हमले को मंजूरी दी, लेकिन मानव निर्णय लेने वाले की उपस्थिति ने आवश्यक रूप से नैतिक स्पष्टता या पर्याप्त विचार-विमर्श को नहीं दर्शाया। “जब आप युद्ध में हैं या जटिल सर्जरी कर रहे हैं, तो आपके पास मानव-इन-द-लूप को ढाल के रूप में उपयोग करने का समय नहीं है।”

2. जिम्मेदारी के लिए डिज़ाइनिंग, न कि केवल निगरानी के लिए

विकल्प मानव-इन-द-लूप प्रणालियों को त्यागने के लिए नहीं है, लेकिन उन्हें गंभीरता से डिज़ाइन प्रतिबद्धता के रूप में लेना है। इसका अर्थ है प्रतीकात्मक निगरानी की ओर से जानबूझकर जिम्मेदारी संरचनाओं की ओर बढ़ना।

“एआई को बाजार में अधिक तेजी से प्राप्त करने की यह बड़ी दौड़ है। डिज़ाइन के दृष्टिकोण से बहुत अधिक सोचा नहीं जा रहा है, जैसे कि यह समुदायों, लोगों या अंतिम उपयोगकर्ताओं पर डाउनस्ट्रीम प्रभाव क्या है,” हावाश ने कहा।

गति अब प्रमुख प्रतिस्पर्धी चर बन गई है। उस दौड़ में, जिम्मेदारी अक्सर स्थगित की जाती है, न कि एम्बेड की जाती है। परिणाम एक प्रतिक्रियात्मक मॉडल है जहां नैतिकता के मुद्दों को तैनाती के बाद ठीक किया जाता है, न कि विकास के दौरान उन्हें आगे बढ़ाया जाता है।

अभिगम्यता अपनाया जा सकती है, लेकिन यह परिणामों को भी बढ़ाती है। प्रणालियाँ अब तकनीकी उपयोगकर्ताओं तक सीमित नहीं हैं, क्योंकि वे विभिन्न स्तरों की समझ और संदर्भ वाले लोगों के लिए निर्णय बना सकती हैं। ऐसे वातावरण में, जिम्मेदारी को अंतिम उपयोगकर्ता को आउटसोर्स नहीं किया जा सकता है।

3. मानव-इन-द-लूप सटीकता और जवाबदेही के रूप में

फ्रिज़ल के सह-संस्थापक अभय गुप्ता एक अधिक परिचालन दृष्टिकोण प्रदान करते हैं – एक ऐसा जो एक प्रणाली बनाने में निहित है जहां मानव निगरानी व्यावहारिक और आवश्यक है।

उनकी कंपनी एक विशिष्ट समस्या से उत्पन्न हुई: अधिक काम करने वाले शिक्षक। “शहर में आप बैंकरों और परामर्शदाताओं के बारे में सुनते हैं जो 70 घंटे काम करते हैं, लेकिन आप शिक्षकों के बारे में नहीं सुनते जो इतना काम करते हैं। इसलिए, जिज्ञासा से, हमने सैकड़ों शिक्षकों से साक्षात्कार किया और पूरे बोर्ड में ग्रेडिंग उनका सबसे बड़ा समय सिंक था।”

ग्रेडिंग को स्वचालित करना सीधा लगता है, लेकिन हस्तलिखित गणित में जटिलता वास्तविक सीमाएं पेश करती है एआई के लिए। “सटीकता का मुद्दा है। एआई परिपूर्ण नहीं है, इसलिए हमने एक मानव-इन-द-लूप प्रणाली बनाई। यदि एआई आत्मविश्वास नहीं है – जैसे कि गंदे हस्तलेखन के साथ – तो यह शिक्षक को समीक्षा और अनुमोदन या अस्वीकार करने के लिए झंडा दिखाता है।”

यहाँ, मानव भूमिका केवल अलंकारिक नहीं है। प्रणाली वास्तव में अपनी अनिश्चितता की पहचान करती है और उन मामलों को मानव को रूट करती है। “हमारे लिए यह सटीकता के बारे में है। एआई 100% सटीक नहीं है – यह हॉलुसिनेट या गलत आउटपुट उत्पन्न कर सकता है। मानव-इन-द-लूप अंतिम गुणवत्ता जांच के रूप में कार्य करता है इससे पहले कि परिणाम अंतिम उपयोगकर्ता तक पहुंचे। यह जिम्मेदारी के बारे में भी है। किसी को आउटपुट के लिए जवाबदेह होना चाहिए, और अभी भी यह एक मानव होना चाहिए।”

महत्वपूर्ण रूप से, मानव भूमिका भी कुछ कम मात्रात्मक को संरक्षित करती है: शिक्षण का संबंधित पहलू। “यह शिक्षण के मानव पक्ष को संरक्षित करने के बारे में भी है। शिक्षकों की अलग-अलग शैलियाँ होती हैं, इसलिए हम उन्हें फीडबैक कैसे दिया जाए, इसे कस्टमाइज़ करने देते हैं”

मानव-इन-द-लूप को पुनः परिभाषित करना

“मानव-इन-द-लूप” शब्द एक संतोषजनक सरलता लाता है। यह सुझाव देता है कि चाहे हमारी प्रणालियाँ कितनी भी उन्नत क्यों न हों, एक मानव नियंत्रण में रहता है और हम केवल “मशीन में भूत” नहीं हैं। लेकिन जैसे ही स्टार्टअप उच्च जोखिम वाले वातावरण में एआई को तैनात करते हैं, यह आश्वासन जांच की मांग करता है।

गहरा मुद्दा डिज़ाइन है। यदि एक प्रणाली के जोखिमों को खराब तरीके से समझा जाता है या जानबूझकर कम किया जाता है, तो अंत में एक मानव को डालने से मूलभूत दोषों को ठीक नहीं किया जा सकता है। महत्वपूर्ण रूप से, यह भी意味ता है कि मानव की भूमिका को एक फॉलबैक के रूप में नहीं, बल्कि प्रणाली के संचालन के एक अभिन्न अंग के रूप में परिभाषित करना। मानव-इन-द-लूप को केवल परिणाम की मंजूरी नहीं देनी चाहिए। स्टार्टअप्स को अपने कर्मचारियों को परिणामों को आकार देने, उन्हें चुनौती देने और जब आवश्यक हो तो उन्हें अधिकार के साथ ओवरराइड करने के लिए सशक्त बनाना चाहिए।

рдЕрд░реНрдЬреБрди рд╣рд░рд┐рдВрджреНрд░рдирд╛рде рдореЗрдбреЗрд▓рд┐рди, рдХреЛрд▓рдореНрдмрд┐рдпрд╛ рдореЗрдВ рд╕реНрдерд┐рдд рдПрдХ рдлреНрд░реАрд▓рд╛рдВрд╕ рдкрддреНрд░рдХрд╛рд░ рд╣реИрдВ, рдЬреЛ рд╡реИрд╢реНрд╡рд┐рдХ рджрд░реНрд╢рдХреЛрдВ рдХреЗ рд▓рд┐рдП рд╕рдВрдШрд░реНрд╖, рдкреНрд░рд╡рд╛рд╕ рдФрд░ рдкреНрд░реМрджреНрдпреЛрдЧрд┐рдХреА рдкрд░ рдХрд╣рд╛рдирд┐рдпреЛрдВ рдХреЛ рдХрд╡рд░ рдХрд░рддреЗ рд╣реИрдВред рдкрд┐рдЫрд▓реЗ рдмрд╛рдпрд▓рд╛рдЗрди рдореЗрдВ рдЕрд▓ рдЬрдЬрд╝реАрд░рд╛, рдЯреЗрдХрдХреНрд░рдВрдЪ, рдж рдиреЗрдХреНрд╕реНрдЯ рд╡реЗрдм рдФрд░ рдиреНрдпреВрдпреЙрд░реНрдХ рдЯрд╛рдЗрдореНрд╕ рд╢рд╛рдорд┐рд▓ рд╣реИрдВред