Connect with us

рдЕрдВрдзрд╡рд┐рд╢реНрд╡рд╛рд╕ рдореЗрдВ AI рдкрд░ рднрд░реЛрд╕рд╛ рдХрд░рдирд╛ рдЖрдкрдХрд╛ рд╕рдмрд╕реЗ рдмреБрд░рд╛ рдлреИрд╕рд▓рд╛ рд╣реЛ рд╕рдХрддрд╛ рд╣реИ

рд╡рд┐рдЪрд╛рд░ рдиреЗрддрд╛

рдЕрдВрдзрд╡рд┐рд╢реНрд╡рд╛рд╕ рдореЗрдВ AI рдкрд░ рднрд░реЛрд╕рд╛ рдХрд░рдирд╛ рдЖрдкрдХрд╛ рд╕рдмрд╕реЗ рдмреБрд░рд╛ рдлреИрд╕рд▓рд╛ рд╣реЛ рд╕рдХрддрд╛ рд╣реИ

mm

1979 में, एक आईबीएम प्रशिक्षण मैनुअल ने एक सरल लेकिन चौंकाने वाली चेतावनी दी: “एक कंप्यूटर को कभी भी जिम्मेदार नहीं ठहराया जा सकता; इसलिए, एक कंप्यूटर को कभी भी प्रबंधन निर्णय नहीं लेना चाहिए।” और 45 से अधिक वर्षों के बाद, यह बयान एक उपेक्षित भविष्यवाणी की तरह लगता है।

2025 में, एआई नहीं केवल सहायता प्रदान करता है; यह स्वायत्त निर्णय लेता है, और कई मामलों में, यह न केवल निर्णय लेता है बल्कि नेतृत्व भी करता है। वास्तव में, लगभग 74% कार्यकारी एआई पर व्यवसायिक सलाह के लिए अपने साथियों या दोस्तों की तुलना में अधिक विश्वास करते हैं, 38% एआई पर व्यवसायिक निर्णय लेने के लिए भरोसा करते हैं, और 44% अपने स्वयं के अंतर्दृष्टि की तुलना में प्रौद्योगिकी के तर्क को महत्व देते हैं। परिवर्तन स्पष्ट है; एआई नई गुत फीलिंग है।

लेकिन एक समस्या है। एआई पर भरोसा तब तक संभव है जब तक अल्गोरिथम विश्वास करने योग्य हो। और जब भरोसा अंधाधुंध रखा जाता है, विशेष रूप से काले बॉक्स में जो हम समझ नहीं सकते हैं या ऑडिट नहीं कर सकते हैं, तो यह जोखिम प्रगति के रूप में छिपा होता है। मानव नेतृत्व के साथ, जिम्मेदारी के बिना विश्वास खतरनाक है, और जब एआई गलत हो जाता है, तो कौन जिम्मेदारी लेता है?

जब टूल बॉस बन जाता है

जो शुरू हुआ था बैक-ऑफिस ऑपरेशन को स्ट्रीमलाइन करने के लिए एक टूल के रूप में, अब यह कोर बिजनेस प्रक्रियाओं में उपयोग किया जा रहा है। लेकिन कंपनियां केवल एआई का उपयोग मानव निर्णयों को समर्थन देने के लिए नहीं कर रही हैं; वे अब एआई, विशेष रूप से जेनरेटिव एआई (जेनएआई) पर व्यवसायिक निर्णय लेने के लिए भरोसा कर रहे हैं, व्यवसाय रणनीति से लेकर ग्राहक सेवा, वित्तीय मॉडलिंग और अधिक तक।

यह परिवर्तन समझ में आता है। एआई विचलित नहीं होता, निर्देशों को भूलता नहीं है, या भावनाओं को अपने निर्णय को बादल देता है। कई कंपनियों के लिए, यह मानव त्रुटि के जोखिम का एक आकर्षक उपाय प्रदान करता है। हालांकि, एक प्रमुख प्रश्न बना हुआ है: क्या हम एआई पर भरोसा कर सकते हैं कि यह स्वतंत्र रूप से निर्णय ले?

यह एक सरल उत्तर नहीं है, लेकिन एक तरीका है जिसे हम लोगों की विश्वसनीयता को आंकते हैं: उनकी क्षमता, विश्वसनीयता और स्पष्ट इरादे से। एआई के लिए भी同样的 सिद्धांत लागू होते हैं।

विश्वास करने योग्य होने के लिए, एक एआई प्रणाली को सटीक, समय पर और उपयुक्त परिणाम प्रदान करने होंगे। लेकिन भरोसे का स्तर और त्रुटि के लिए मार्जिन संदर्भ के आधार पर भिन्न होता है। उदाहरण के लिए, जब मेडिकल इमेजरी से कैंसर का निदान किया जाता है, तो विफलता के लिए बहुत कम बार होता है। इसके विपरीत, जब एक मार्केटिंग अभियान के लिए विचार उत्पन्न करने की बात आती है, तो प्रयोग के लिए अधिक जगह होती है।

हमने क्रेडिट अनुमोदन जैसे क्षेत्रों में स्वायत्त निर्णय लेने के लिए एआई का उपयोग देखा है, जहां बैंक एल्गोरिदम का उपयोग करके ऋण योग्यता का निर्धारण करते हैं। खुदरा विक्रेता मानव इनपुट के बिना इन्वेंट्री और मूल्य निर्धारण का प्रबंधन करने के लिए एआई का उपयोग करते हैं। लेकिन हमने विफलताओं को भी देखा है – जैसे स्व-ड्राइविंग कारें सड़क की स्थिति को गलत समझती हैं।

एक सावधानी भरा कथन एआई में बहुत अधिक भरोसा करने के जोखिम को दिखाता है। डेरेक मोबले – एक 40 से अधिक आयु के अश्वेत व्यक्ति – ने 2017 से वर्कडे एआई-चालित भर्ती प्रणाली के माध्यम से 100 से अधिक पदों के लिए आवेदन किया और हर बार अस्वीकार कर दिया गया। उन्होंने आयु और जाति के आधार पर भेदभाव का आरोप लगाया। मई 2025 में, अदालत ने एक राष्ट्रव्यापी सामूहिक कार्रवाई को मंजूरी दी। कक्षा में सभी आवेदक शामिल हैं जो 40+ आयु के हैं जिन्होंने सितंबर 2020 से वर्कडे के माध्यम से आवेदन किया था और एआई सिफारिशों के आधार पर अस्वीकार कर दिया गया था।

यह उदाहरण एक महत्वपूर्ण बिंदु बनाता है: एआई में भावनात्मक बुद्धिमत्ता, नैतिक तर्क या प्राकृतिक न्याय की भावना का अभाव है। और चूंकि एआई मानव सहायक से स्वतंत्र निर्णय लेने वाला बन रहा है, अब एक जिम्मेदारी का शून्य है। जब एल्गोरिदम मानव जांच और संतुलन के बिना चलने की अनुमति दी जाती है, तो वे खराब निर्णय लेते हैं और मौजूदा पूर्वाग्रहों को मजबूत करते हैं।

ब्लैक बॉक्स के चारों ओर प्रश्न

ब्लैक बॉक्स – जब एक एआई प्रणाली और तर्क पूरी तरह से दिखाई नहीं देते हैं – तेजी से सामान्य होते जा रहे हैं। हालांकि उनके पास दृश्य परतें हो सकती हैं, विकासकर्ता और उपयोगकर्ता अभी भी यह नहीं देख सकते कि प्रत्येक परत में क्या होता है, जिससे वे अपारदर्शी हो जाते हैं।

उदाहरण के लिए, चैटजीपीटी एक ब्लैक बॉक्स है, क्योंकि इसके निर्माता भी यह नहीं जानते कि यह कैसे काम करता है, क्योंकि यह इतने बड़े डेटा सेट पर प्रशिक्षित किया गया है। लेकिन पारदर्शिता की कमी के कारण, क्या यह कभी भी एक एआई मॉडल पर भरोसा करना ठीक है जिसे पूरी तरह से समझे बिना?

संक्षेप में, नहीं: एआई हॉलुसिनेशन और भी बदतर हो रहे हैं। इसका अर्थ है कि उच्च जोखिम वाले परिदृश्यों में, जैसे कि वित्तीय निर्णय, कानूनी सलाह और चिकित्सा अंतर्दृष्टि, एआई को कठोर सत्यापन, क्रॉस-रेफरेंसिंग और मानव पर्यवेक्षण की मांग है।

डिज़नी और यूनिवर्सल मुकदमा जून 2025 में दायर किया गया इस बिंदु को मजबूत करता है। स्टूडियो का आरोप है कि जेनएआई टूल्स को नए सामग्री बनाने के लिए कॉपीराइट सामग्री पर प्रशिक्षित किया गया था जो सहमति के बिना था। यह मामला एक नई वास्तविकता को उजागर करता है: जब कंपनियां एआई मॉडल तैनात करती हैं जिन्हें वे पूरी तरह से नहीं समझती हैं, तो उन्हें निर्णयों के लिए जिम्मेदार ठहराया जा सकता है। और अज्ञानता कोई बचाव नहीं है; यह एक दायित्व है।

हालांकि, हम अक्सर जटिल प्रणालियों पर भरोसा करते हैं जिन्हें हम नहीं समझते हैं। उदाहरण के लिए, अधिकांश हवाई यात्रा यात्री उड़ान के भौतिकी को समझा नहीं सकते हैं, फिर भी लोग विमानों में सवार होते हैं क्योंकि हम बार-बार उजागर होने, सामूहिक अनुभव और मजबूत सुरक्षा रिकॉर्ड के माध्यम से विश्वास बनाते हैं।

समान तर्क फिर से एआई पर लागू हो सकता है। यह अपेक्षा करना अनुचित है कि हर कोई समझे कि एलएलएम वास्तव में कैसे काम करते हैं। लेकिन विश्वास समझ से नहीं बनता; यह परिचितता, सीमाओं की पारदर्शिता और विश्वसनीय प्रदर्शन के सिद्ध पैटर्न की मांग करता है। एयरोस्पेस इंजीनियर जानते हैं कि कौन से परीक्षण लगाने हैं, कौन से त्रुटियां देखनी हैं, और हमें जेनएआई प्रदाताओं से同样的 मांग करनी चाहिए। एआई का मूल सिद्धांत विश्वास होना चाहिए, लेकिन सत्यापन करना चाहिए।

इसके अलावा, व्यवसायिक नेता अक्सर मानते हैं कि एआई उनकी सभी व्यवसायिक समस्याओं का समाधान होगा। हालांकि, यह मिथक एआई एकीकरण के दौरान कई कंपनियों को प्रभावित करता है। नेता जटिल और परिष्कृत मॉडल पसंद कर सकते हैं, लेकिन एक सरल समाधान बेहतर हो सकता है यदि उन्होंने लागत-लाभ विश्लेषण किया हो। एआई एक शक्तिशाली उपकरण है, लेकिन यह हर कार्य के लिए उपयुक्त नहीं है। कंपनियों को समस्या को पहचानने से पहले एक उपकरण का चयन करने की आवश्यकता है।

एआई में विश्वास का पुनर्निर्माण

यह स्पष्ट है कि एआई पर अंधाधुंध भरोसा करना एक मुद्दा है, एआई प्रणाली और एल्गोरिदम व्यवसाय के लिए सबसे बड़ा उपकरण हो सकता है – जब सुरक्षित रूप से उपयोग किया जाता है।

एआई टूल का लाभ उठाने के लिए व्यवसायों के लिए, पहली बात विक्रेता की जांच-पड़ताल है। जब एक व्यवसाय ने एक क्षेत्र की पहचान की है जो एआई की दक्षता से लाभान्वित हो सकता है, तो व्यवसायिक नेताओं को विक्रेताओं का मूल्यांकन नहीं केवल प्रदर्शन दावों पर करना चाहिए, बल्कि शासन नियंत्रणों पर भी करना चाहिए। इसमें मॉडल के विकास, व्याख्या उपकरणों की उपलब्धता, पूर्वाग्रह की निगरानी और ऑडिट ट्रेल की उपलब्धता शामिल है। एक पारदर्शी प्रक्रिया वाले विक्रेता का चयन जोखिम को कम करने के लिए आवश्यक है।

शायद एआई प्रणालियों में विश्वास बनाने का सबसे महत्वपूर्ण बिंदु डेटा शासन के साथ स्वच्छ, प्रतिनिधित्व और अच्छी तरह से प्रलेखित डेटासेट सुनिश्चित करना है। जैसा कि कहा जाता है, “कचरा में कचरा, कचरा बाहर”। इसलिए, यदि डेटा अधूरा है, पूर्वाग्रहपूर्ण है या असटीक है, तो सबसे उन्नत मॉडल भी अविश्वसनीय परिणाम प्रदान करेगा।

एआई के लिए डेटा तैयार करने के लिए, व्यवसायों को:

  • मौजूदा डेटासेट को अंतराल और दोहराव के लिए ऑडिट करें, और पूर्वाग्रह के स्रोतों की जांच करें

  • डेटा प्रारूप मानकीकृत करें

  • डेटा शासन नीतियां लागू करें जो स्वामित्व और एक्सेस नियंत्रण को परिभाषित करती हैं

व्यवसायिक नेताओं के लिए एक और महत्वपूर्ण कदम है विभिन्न परिस्थितियों में तनाव परीक्षण करना। हालांकि एक मॉडल नियंत्रित परीक्षणों में अच्छा प्रदर्शन कर सकता है, यह समझना महत्वपूर्ण है कि मॉडल की सीमाएं हैं जब यह नई डेटा या इनपुट का सामना करता है जो उसने अपेक्षा नहीं की थी। यही कारण है कि विभिन्न स्थितियों में, विभिन्न प्रकार के उपयोगकर्ताओं के साथ, विभिन्न उपयोग के मामलों में और विभिन्न समय अवधि के डेटा के साथ एआई का परीक्षण करना महत्वपूर्ण है।

एआई सत्यापन एक निरंतर कार्य है। जैसे ही डेटा समय के साथ बदलता है, विश्वसनीय एआई मॉडल भी अस्थिर हो सकते हैं। यही कारण है कि नियमित निगरानी महत्वपूर्ण है। व्यवसायों को यह देखने की आवश्यकता है कि मॉडल दिन-प्रतिदिन कैसा प्रदर्शन कर रहा है: क्या यह अभी भी सटीक है? या झूठे सकारात्मक बढ़ रहे हैं? और जैसे कि किसी भी प्रणाली को रखरखाव की आवश्यकता होती है, मॉडल को ताज़ा डेटा के साथ नियमित रूप से पुन: प्रशिक्षित किया जाना चाहिए ताकि यह प्रासंगिक बना रहे।

एआई विश्वसनीय या अविश्वसनीय नहीं है; यह डेटा से सीखता है, जो इसे बनाता है और जो नियम इसे नियंत्रित करते हैं। जैसे ही एआई एक उपयोगी उपकरण से व्यवसायिक सलाहकार बनता है, नेताओं के पास इसका उपयोग करने और एक सोच-समझकर और नैतिक तरीके से करने का विकल्प है। यदि हम इसे सही तरीके से करते हैं, तो एआई न केवल शक्तिशाली होगा, बल्कि जिम्मेदार भी होगा, जिसमें जिम्मेदारी स्पष्ट रूप से इसके विकासकर्ता और पर्यवेक्षकों के साथ बैठेगी।

рдорд╛рд░реНрдЯрд┐рди рд▓реЗрд╡рд┐рдЯ рдирд┐рд╕реБрдо рдХреЗ рдПрд╕рд╡реАрдкреА (рд╕реАрдирд┐рдпрд░ рд╡рд╛рдЗрд╕ рдкреНрд░реЗрд╕рд┐рдбреЗрдВрдЯ) рд╣реИрдВ, рдПрдХ рд╡реИрд╢реНрд╡рд┐рдХ рдкрд░рд╛рдорд░реНрд╢ рднрд╛рдЧреАрджрд╛рд░ рдЬреЛ рдбрд┐рдЬрд┐рдЯрд▓ рд╡рд╛рдгрд┐рдЬреНрдп рдФрд░ рд╡рд┐рдХрд╛рд╕ рдореЗрдВ рд╡рд┐рд╢реЗрд╖рдЬреНрдЮрддрд╛ рд░рдЦрддрд╛ рд╣реИ рдЬреЛ рд╡рд┐рдХрд╛рд╕, рдЕрдиреБрдХреВрд▓рд┐рдд рд╕рдорд╛рдзрд╛рдиреЛрдВ рдФрд░ рдПрдЖрдИ-рд╕рдВрдЪрд╛рд▓рд┐рдд рдкреНрд▓реЗрдЯрдлрд╝реЙрд░реНрдо рдмрдирд╛рддрд╛ рд╣реИ рдЬреЛ рд╡рд┐рдХрд╛рд╕, рд╕рдВрдЪрд╛рд▓рди рдХреЛ рдЕрдиреБрдХреВрд▓рд┐рдд рдХрд░рдиреЗ рдФрд░ рджреАрд░реНрдШрдХрд╛рд▓рд┐рдХ рдореВрд▓реНрдп рдмрдирд╛рдиреЗ рдХреЗ рд▓рд┐рдП рд╡рд┐рдХрд╛рд╕ред рдЬрдЯрд┐рд▓ рд╡реНрдпрд╛рд╡рд╕рд╛рдпрд┐рдХ рдЪреБрдиреМрддрд┐рдпреЛрдВ рдХреЛ рдирд╡рд╛рдЪрд╛рд░реА рд╕рдорд╛рдзрд╛рдиреЛрдВ рдХреЗ рд╕рд╛рде рд╣рд▓ рдХрд░рдиреЗ рдореЗрдВ рд╡реНрдпрд╛рдкрдХ рдЕрдиреБрднрд╡ рдХреЗ рд╕рд╛рде, рдорд╛рд░реНрдЯрд┐рди рдХреЗ рд╣рд┐рддреЛрдВ рдореЗрдВ рдЙрди рд▓реЛрдЧреЛрдВ рдХреЛ рд╡рд┐рдХрд╕рд┐рдд рдХрд░рдирд╛ рдФрд░ рдкреНрд░рд╢рд┐рдХреНрд╖рд┐рдд рдХрд░рдирд╛ рд╢рд╛рдорд┐рд▓ рд╣реИ рдЬреЛ рдЙрдирдХреЗ рд╕рд╛рде рдХрд╛рдо рдХрд░рддреЗ рд╣реИрдВ рдФрд░ рдирдП рдФрд░ рд░реЛрдорд╛рдВрдЪрдХ рдЕрд╡рд╕рд░ рдкреИрджрд╛ рдХрд░рдиреЗ рд╡рд╛рд▓реЗ рдХрдиреЗрдХреНрд╢рди рдЙрддреНрдкрдиреНрди рдХрд░рддреЗ рд╣реИрдВ, рдкреНрд░рднрд╛рд╡реА рдиреЗрддреГрддреНрд╡, рд░рдгрдиреАрддрд┐рдХ рджреГрд╖реНрдЯрд┐ рдФрд░ рдПрдХ рдирд╡рд╛рдЪрд╛рд░ рд╕рдВрд╕реНрдХреГрддрд┐ рдХрд╛ рдирд┐рд░реНрдорд╛рдг рдХрд░рдиреЗ рдкрд░ рджреИрдирд┐рдХ рдзреНрдпрд╛рди рдХреЗрдВрджреНрд░рд┐рдд рдХрд░рддреЗ рд╣реИрдВ, рдХрдВрдкрдиреА рдХреЗ рдордВрддреНрд░ "рдПрдХ рд╕рд╛рде рд╕рдлрд▓рддрд╛ рдмрдирд╛рдиреЗ" рдХреЗ рддрд╣рддред