рд╡рд┐рдЪрд╛рд░ рдиреЗрддрд╛
рдЕрдВрдзрд╡рд┐рд╢реНрд╡рд╛рд╕ рдореЗрдВ AI рдкрд░ рднрд░реЛрд╕рд╛ рдХрд░рдирд╛ рдЖрдкрдХрд╛ рд╕рдмрд╕реЗ рдмреБрд░рд╛ рдлреИрд╕рд▓рд╛ рд╣реЛ рд╕рдХрддрд╛ рд╣реИ

1979 में, एक आईबीएम प्रशिक्षण मैनुअल ने एक सरल लेकिन चौंकाने वाली चेतावनी दी: “एक कंप्यूटर को कभी भी जिम्मेदार नहीं ठहराया जा सकता; इसलिए, एक कंप्यूटर को कभी भी प्रबंधन निर्णय नहीं लेना चाहिए।” और 45 से अधिक वर्षों के बाद, यह बयान एक उपेक्षित भविष्यवाणी की तरह लगता है।
2025 में, एआई नहीं केवल सहायता प्रदान करता है; यह स्वायत्त निर्णय लेता है, और कई मामलों में, यह न केवल निर्णय लेता है बल्कि नेतृत्व भी करता है। वास्तव में, लगभग 74% कार्यकारी एआई पर व्यवसायिक सलाह के लिए अपने साथियों या दोस्तों की तुलना में अधिक विश्वास करते हैं, 38% एआई पर व्यवसायिक निर्णय लेने के लिए भरोसा करते हैं, और 44% अपने स्वयं के अंतर्दृष्टि की तुलना में प्रौद्योगिकी के तर्क को महत्व देते हैं। परिवर्तन स्पष्ट है; एआई नई गुत फीलिंग है।
लेकिन एक समस्या है। एआई पर भरोसा तब तक संभव है जब तक अल्गोरिथम विश्वास करने योग्य हो। और जब भरोसा अंधाधुंध रखा जाता है, विशेष रूप से काले बॉक्स में जो हम समझ नहीं सकते हैं या ऑडिट नहीं कर सकते हैं, तो यह जोखिम प्रगति के रूप में छिपा होता है। मानव नेतृत्व के साथ, जिम्मेदारी के बिना विश्वास खतरनाक है, और जब एआई गलत हो जाता है, तो कौन जिम्मेदारी लेता है?
जब टूल बॉस बन जाता है
जो शुरू हुआ था बैक-ऑफिस ऑपरेशन को स्ट्रीमलाइन करने के लिए एक टूल के रूप में, अब यह कोर बिजनेस प्रक्रियाओं में उपयोग किया जा रहा है। लेकिन कंपनियां केवल एआई का उपयोग मानव निर्णयों को समर्थन देने के लिए नहीं कर रही हैं; वे अब एआई, विशेष रूप से जेनरेटिव एआई (जेनएआई) पर व्यवसायिक निर्णय लेने के लिए भरोसा कर रहे हैं, व्यवसाय रणनीति से लेकर ग्राहक सेवा, वित्तीय मॉडलिंग और अधिक तक।
यह परिवर्तन समझ में आता है। एआई विचलित नहीं होता, निर्देशों को भूलता नहीं है, या भावनाओं को अपने निर्णय को बादल देता है। कई कंपनियों के लिए, यह मानव त्रुटि के जोखिम का एक आकर्षक उपाय प्रदान करता है। हालांकि, एक प्रमुख प्रश्न बना हुआ है: क्या हम एआई पर भरोसा कर सकते हैं कि यह स्वतंत्र रूप से निर्णय ले?
यह एक सरल उत्तर नहीं है, लेकिन एक तरीका है जिसे हम लोगों की विश्वसनीयता को आंकते हैं: उनकी क्षमता, विश्वसनीयता और स्पष्ट इरादे से। एआई के लिए भी同样的 सिद्धांत लागू होते हैं।
विश्वास करने योग्य होने के लिए, एक एआई प्रणाली को सटीक, समय पर और उपयुक्त परिणाम प्रदान करने होंगे। लेकिन भरोसे का स्तर और त्रुटि के लिए मार्जिन संदर्भ के आधार पर भिन्न होता है। उदाहरण के लिए, जब मेडिकल इमेजरी से कैंसर का निदान किया जाता है, तो विफलता के लिए बहुत कम बार होता है। इसके विपरीत, जब एक मार्केटिंग अभियान के लिए विचार उत्पन्न करने की बात आती है, तो प्रयोग के लिए अधिक जगह होती है।
हमने क्रेडिट अनुमोदन जैसे क्षेत्रों में स्वायत्त निर्णय लेने के लिए एआई का उपयोग देखा है, जहां बैंक एल्गोरिदम का उपयोग करके ऋण योग्यता का निर्धारण करते हैं। खुदरा विक्रेता मानव इनपुट के बिना इन्वेंट्री और मूल्य निर्धारण का प्रबंधन करने के लिए एआई का उपयोग करते हैं। लेकिन हमने विफलताओं को भी देखा है – जैसे स्व-ड्राइविंग कारें सड़क की स्थिति को गलत समझती हैं।
एक सावधानी भरा कथन एआई में बहुत अधिक भरोसा करने के जोखिम को दिखाता है। डेरेक मोबले – एक 40 से अधिक आयु के अश्वेत व्यक्ति – ने 2017 से वर्कडे एआई-चालित भर्ती प्रणाली के माध्यम से 100 से अधिक पदों के लिए आवेदन किया और हर बार अस्वीकार कर दिया गया। उन्होंने आयु और जाति के आधार पर भेदभाव का आरोप लगाया। मई 2025 में, अदालत ने एक राष्ट्रव्यापी सामूहिक कार्रवाई को मंजूरी दी। कक्षा में सभी आवेदक शामिल हैं जो 40+ आयु के हैं जिन्होंने सितंबर 2020 से वर्कडे के माध्यम से आवेदन किया था और एआई सिफारिशों के आधार पर अस्वीकार कर दिया गया था।
यह उदाहरण एक महत्वपूर्ण बिंदु बनाता है: एआई में भावनात्मक बुद्धिमत्ता, नैतिक तर्क या प्राकृतिक न्याय की भावना का अभाव है। और चूंकि एआई मानव सहायक से स्वतंत्र निर्णय लेने वाला बन रहा है, अब एक जिम्मेदारी का शून्य है। जब एल्गोरिदम मानव जांच और संतुलन के बिना चलने की अनुमति दी जाती है, तो वे खराब निर्णय लेते हैं और मौजूदा पूर्वाग्रहों को मजबूत करते हैं।
ब्लैक बॉक्स के चारों ओर प्रश्न
ब्लैक बॉक्स – जब एक एआई प्रणाली और तर्क पूरी तरह से दिखाई नहीं देते हैं – तेजी से सामान्य होते जा रहे हैं। हालांकि उनके पास दृश्य परतें हो सकती हैं, विकासकर्ता और उपयोगकर्ता अभी भी यह नहीं देख सकते कि प्रत्येक परत में क्या होता है, जिससे वे अपारदर्शी हो जाते हैं।
उदाहरण के लिए, चैटजीपीटी एक ब्लैक बॉक्स है, क्योंकि इसके निर्माता भी यह नहीं जानते कि यह कैसे काम करता है, क्योंकि यह इतने बड़े डेटा सेट पर प्रशिक्षित किया गया है। लेकिन पारदर्शिता की कमी के कारण, क्या यह कभी भी एक एआई मॉडल पर भरोसा करना ठीक है जिसे पूरी तरह से समझे बिना?
संक्षेप में, नहीं: एआई हॉलुसिनेशन और भी बदतर हो रहे हैं। इसका अर्थ है कि उच्च जोखिम वाले परिदृश्यों में, जैसे कि वित्तीय निर्णय, कानूनी सलाह और चिकित्सा अंतर्दृष्टि, एआई को कठोर सत्यापन, क्रॉस-रेफरेंसिंग और मानव पर्यवेक्षण की मांग है।
डिज़नी और यूनिवर्सल मुकदमा जून 2025 में दायर किया गया इस बिंदु को मजबूत करता है। स्टूडियो का आरोप है कि जेनएआई टूल्स को नए सामग्री बनाने के लिए कॉपीराइट सामग्री पर प्रशिक्षित किया गया था जो सहमति के बिना था। यह मामला एक नई वास्तविकता को उजागर करता है: जब कंपनियां एआई मॉडल तैनात करती हैं जिन्हें वे पूरी तरह से नहीं समझती हैं, तो उन्हें निर्णयों के लिए जिम्मेदार ठहराया जा सकता है। और अज्ञानता कोई बचाव नहीं है; यह एक दायित्व है।
हालांकि, हम अक्सर जटिल प्रणालियों पर भरोसा करते हैं जिन्हें हम नहीं समझते हैं। उदाहरण के लिए, अधिकांश हवाई यात्रा यात्री उड़ान के भौतिकी को समझा नहीं सकते हैं, फिर भी लोग विमानों में सवार होते हैं क्योंकि हम बार-बार उजागर होने, सामूहिक अनुभव और मजबूत सुरक्षा रिकॉर्ड के माध्यम से विश्वास बनाते हैं।
समान तर्क फिर से एआई पर लागू हो सकता है। यह अपेक्षा करना अनुचित है कि हर कोई समझे कि एलएलएम वास्तव में कैसे काम करते हैं। लेकिन विश्वास समझ से नहीं बनता; यह परिचितता, सीमाओं की पारदर्शिता और विश्वसनीय प्रदर्शन के सिद्ध पैटर्न की मांग करता है। एयरोस्पेस इंजीनियर जानते हैं कि कौन से परीक्षण लगाने हैं, कौन से त्रुटियां देखनी हैं, और हमें जेनएआई प्रदाताओं से同样的 मांग करनी चाहिए। एआई का मूल सिद्धांत विश्वास होना चाहिए, लेकिन सत्यापन करना चाहिए।
इसके अलावा, व्यवसायिक नेता अक्सर मानते हैं कि एआई उनकी सभी व्यवसायिक समस्याओं का समाधान होगा। हालांकि, यह मिथक एआई एकीकरण के दौरान कई कंपनियों को प्रभावित करता है। नेता जटिल और परिष्कृत मॉडल पसंद कर सकते हैं, लेकिन एक सरल समाधान बेहतर हो सकता है यदि उन्होंने लागत-लाभ विश्लेषण किया हो। एआई एक शक्तिशाली उपकरण है, लेकिन यह हर कार्य के लिए उपयुक्त नहीं है। कंपनियों को समस्या को पहचानने से पहले एक उपकरण का चयन करने की आवश्यकता है।
एआई में विश्वास का पुनर्निर्माण
यह स्पष्ट है कि एआई पर अंधाधुंध भरोसा करना एक मुद्दा है, एआई प्रणाली और एल्गोरिदम व्यवसाय के लिए सबसे बड़ा उपकरण हो सकता है – जब सुरक्षित रूप से उपयोग किया जाता है।
एआई टूल का लाभ उठाने के लिए व्यवसायों के लिए, पहली बात विक्रेता की जांच-पड़ताल है। जब एक व्यवसाय ने एक क्षेत्र की पहचान की है जो एआई की दक्षता से लाभान्वित हो सकता है, तो व्यवसायिक नेताओं को विक्रेताओं का मूल्यांकन नहीं केवल प्रदर्शन दावों पर करना चाहिए, बल्कि शासन नियंत्रणों पर भी करना चाहिए। इसमें मॉडल के विकास, व्याख्या उपकरणों की उपलब्धता, पूर्वाग्रह की निगरानी और ऑडिट ट्रेल की उपलब्धता शामिल है। एक पारदर्शी प्रक्रिया वाले विक्रेता का चयन जोखिम को कम करने के लिए आवश्यक है।
शायद एआई प्रणालियों में विश्वास बनाने का सबसे महत्वपूर्ण बिंदु डेटा शासन के साथ स्वच्छ, प्रतिनिधित्व और अच्छी तरह से प्रलेखित डेटासेट सुनिश्चित करना है। जैसा कि कहा जाता है, “कचरा में कचरा, कचरा बाहर”। इसलिए, यदि डेटा अधूरा है, पूर्वाग्रहपूर्ण है या असटीक है, तो सबसे उन्नत मॉडल भी अविश्वसनीय परिणाम प्रदान करेगा।
एआई के लिए डेटा तैयार करने के लिए, व्यवसायों को:
-
मौजूदा डेटासेट को अंतराल और दोहराव के लिए ऑडिट करें, और पूर्वाग्रह के स्रोतों की जांच करें
-
डेटा प्रारूप मानकीकृत करें
-
डेटा शासन नीतियां लागू करें जो स्वामित्व और एक्सेस नियंत्रण को परिभाषित करती हैं
व्यवसायिक नेताओं के लिए एक और महत्वपूर्ण कदम है विभिन्न परिस्थितियों में तनाव परीक्षण करना। हालांकि एक मॉडल नियंत्रित परीक्षणों में अच्छा प्रदर्शन कर सकता है, यह समझना महत्वपूर्ण है कि मॉडल की सीमाएं हैं जब यह नई डेटा या इनपुट का सामना करता है जो उसने अपेक्षा नहीं की थी। यही कारण है कि विभिन्न स्थितियों में, विभिन्न प्रकार के उपयोगकर्ताओं के साथ, विभिन्न उपयोग के मामलों में और विभिन्न समय अवधि के डेटा के साथ एआई का परीक्षण करना महत्वपूर्ण है।
एआई सत्यापन एक निरंतर कार्य है। जैसे ही डेटा समय के साथ बदलता है, विश्वसनीय एआई मॉडल भी अस्थिर हो सकते हैं। यही कारण है कि नियमित निगरानी महत्वपूर्ण है। व्यवसायों को यह देखने की आवश्यकता है कि मॉडल दिन-प्रतिदिन कैसा प्रदर्शन कर रहा है: क्या यह अभी भी सटीक है? या झूठे सकारात्मक बढ़ रहे हैं? और जैसे कि किसी भी प्रणाली को रखरखाव की आवश्यकता होती है, मॉडल को ताज़ा डेटा के साथ नियमित रूप से पुन: प्रशिक्षित किया जाना चाहिए ताकि यह प्रासंगिक बना रहे।
एआई विश्वसनीय या अविश्वसनीय नहीं है; यह डेटा से सीखता है, जो इसे बनाता है और जो नियम इसे नियंत्रित करते हैं। जैसे ही एआई एक उपयोगी उपकरण से व्यवसायिक सलाहकार बनता है, नेताओं के पास इसका उपयोग करने और एक सोच-समझकर और नैतिक तरीके से करने का विकल्प है। यदि हम इसे सही तरीके से करते हैं, तो एआई न केवल शक्तिशाली होगा, बल्कि जिम्मेदार भी होगा, जिसमें जिम्मेदारी स्पष्ट रूप से इसके विकासकर्ता और पर्यवेक्षकों के साथ बैठेगी।












