Connect with us

AI की बाधा असफलता नहीं है। यह बहुत धीमी असफलता है।

विचार नेता

AI की बाधा असफलता नहीं है। यह बहुत धीमी असफलता है।

mm
A conceptual photograph showing a hand approaching a transparent glass interface with a glowing green speedometer gauge and an upward-pointing arrow. The background shows an out-of-focus, tangled knot of black wires and red light.

AI की बाधा असफलता नहीं है। यह बहुत धीमी असफलता है।

आर्टिफिशियल इंटेलिजेंस (AI) संगठनों के संचालन, नवाचार और विकास के तरीके को बदल रहा है। सभी उद्योगों में, संगठन AI का उपयोग वर्कफ़्लो को सुव्यवस्थित करने, नई दक्षताएँ खोलने और तेज़, अधिक आत्मविश्वासपूर्ण निर्णय लेने में सहायता के लिए कर रहे हैं। जैसे-जैसे AI चुपचाप आधुनिक उत्पादकता का इंजन बनता जा रहा है, यह संगठनों को अधिक चुस्ती और पैमाना हासिल करने में मदद करता है।

हालाँकि, AI के कई मापने योग्य लाभों के बावजूद, कुछ अप्रत्याशित हो रहा है। कई उद्यम एक दीवार से टकरा रहे हैं। नवाचार को गति देने के बजाय, कुछ टीमें जटिलता, जोखिम प्रबंधन और अज्ञात के बढ़ते डर में फंसती जा रही हैं।

क्यों? क्योंकि हम इसके बारे में गलत तरीके से सोच रहे हैं।

AI को अक्सर एक ऐसी तकनीक के रूप में गलत समझा जाता है जिस पर भरोसा करने से पहले उसे पूरी तरह से नियंत्रित किया जाना चाहिए। यह इस गलत धारणा से उपजा है कि सुरक्षा के लिए निश्चितता एक पूर्वापेक्षा है। लेकिन यह व्याख्या इस बात से चूक जाती है कि AI क्या है और यह कैसे मूल्य प्रदान करता है। AI एक अनुकूली उपकरण है जिसे उपयोग के साथ सीखने और विकसित होने के लिए डिज़ाइन किया गया है। इसे ऐसे व्यवहार करने के रूप में मानना जैसे कि यह पारंपरिक सॉफ़्टवेयर की तरह व्यवहार करना चाहिए, इसकी प्रकृति की एक गलत व्याख्या है और इसकी क्षमता को कमजोर करती है।

AI का जिम्मेदारी से उपयोग करने के प्रयास में, कई संगठनों ने अनजाने में जोखिम न्यूनीकरण को एक बाधा में बदल दिया है। सभी उद्योगों में, टीमें AI को तैनात करने से हिचकिचाती हैं जब तक कि वे इसकी निर्णय लेने की प्रक्रिया की हर परत को, अक्सर अव्यावहारिक स्तर तक, विश्लेषित, समझा और उचित ठहरा नहीं सकतीं। हालाँकि जांच का यह स्तर सुविचारित परिश्रम को दर्शाता है, यह अक्सर AI के मूल उद्देश्य को ही विफल कर देता है: अंतर्दृष्टि को तेज करना, टीमों को मजबूत करना और बड़े पैमाने पर समस्याओं को हल करना।

यह समय है कि पूर्ण नियंत्रण की मांग से दूर हटकर एक ऐसे मॉडल की ओर बढ़ा जाए जो लचीलापन, उत्पादकता और व्यावहारिक व्याख्यात्मकता पर जोर देता है—बिना नवाचार को रोके।

ब्लैक बॉक्स का डर प्रगति में बाधा है

लोगों को उन प्रणालियों के साथ स्वाभाविक असहजता होती है जिन्हें वे पूरी तरह से नहीं समझते हैं, और AI उपकरण—खासकर बड़े, जेनरेटिव मॉडल—अक्सर ऐसे तरीकों से काम करते हैं जो आसान व्याख्या को चुनौती देते हैं। नतीजतन, कई नेता एक जाल में फंस जाते हैं: यदि वे हर AI निर्णय को पूरी तरह से समझा नहीं सकते, तो सिस्टम पर भरोसा नहीं किया जा सकता।

इस प्रकार, कई संगठन निगरानी प्रक्रियाओं को अति-अभियांत्रित कर देते हैं, कम जोखिम वाले उपयोग मामलों के लिए भी क्रॉस-फंक्शनल समीक्षाओं, अनुपालन जांचों और व्याख्यात्मकता ऑडिट की परतें जोड़ देते हैं। जब टीमें व्याख्यात्मकता को हर ब्लैक बॉक्स को खोलने की आवश्यकता के रूप में मानती हैं, तो वे AI कार्यान्वयन को समीक्षा के अंतहीन चक्रों में फंसा देती हैं। इससे एक “परिचालन पक्षाघात” पैदा होता है जिसमें टीमें AI के साथ गलत काम करने से इतनी डर जाती हैं कि वे कोई भी काम करना बंद कर देती हैं, जिसके परिणामस्वरूप गति का लगातार क्षरण, ठप पहल और अंततः, खोया हुआ अवसर होता है।

समस्या नियंत्रण प्रणालियों के पीछे के इरादे में नहीं है; यह इस धारणा में है कि जोखिम न्यूनीकरण का मतलब नियंत्रण होना चाहिए। व्यवहार में, पूर्णता के बजाय लचीलापन के लिए AI प्रणालियों को डिजाइन करना एक अधिक प्रभावी दृष्टिकोण है। कुंजी यह है कि प्रक्रियात्मक दृष्टिकोण को छोड़कर परिणाम-आधारित सोच को अपनाया जाए।

AI में लचीलापन का मतलब है यह स्वीकार करना कि गलतियाँ होंगी और ऐसे सुरक्षा उपाय बनाना जो उनका पता लगा सकें और उन्हें ठीक कर सकें। इसका मतलब है कि बातचीत को हर संभव विफलता को कैसे रोका जाए से हटाकर यह सुनिश्चित करने पर ले जाना कि जब चीजें गलत दिशा में जाएं तो तेजी से पता लगाने और हस्तक्षेप कैसे किया जाए।

अधिकांश आधुनिक प्रणालियाँ इस समझ के साथ बनाई जाती हैं कि त्रुटि का कुछ स्तर होगा। उदाहरण के लिए, साइबर सुरक्षा उपकरणों से यह अपेक्षा नहीं की जाती कि वे 100% अभेद्य हों। उन्हें ऐसा बनने के लिए डिज़ाइन नहीं किया गया है। बल्कि, उन्हें पता लगाने, प्रतिक्रिया देने और तेजी से पुनर्प्राप्ति प्रोटोकॉल बनाने के लिए डिज़ाइन किया गया है। AI पर भी यही अपेक्षाएँ लागू होनी चाहिए।

हर AI निर्णय में पूर्ण दृश्यता की मांग करना अव्यावहारिक है और मूल्य सृजन के लिए प्रतिकूल हो सकता है। इसके बजाय, संगठनों को “डैशबोर्ड-स्तरीय व्याख्यात्मकता” को बढ़ावा देना चाहिए जो त्रुटियों का पता लगाने और सुरक्षा उपाय लागू करने के लिए पर्याप्त संदर्भ और निगरानी प्रदान करती है, बिना उद्यम नवाचार को रोके।

AI तैनाती को अधिक जटिल न बनाएं

संगठनों को उपयोग के मामले की परवाह किए बिना, AI कार्यान्वयन में पूर्ण अंतरसंचालनीयता को अपनाना चाहिए। पूर्ण अंतरसंचालनीयता एक व्याकुलता होने के बजाय, निर्बाध एकीकरण सुनिश्चित करती है और सिस्टम में अधिक मूल्य खोलती है। भविष्य में, उद्यमों में, यह संभव है कि हम AI एजेंटों की आभासी सेनाएँ देखेंगे जो सभी सामान्य लक्ष्यों की ओर मिलकर काम कर रही हैं।

यह मानसिकता जोखिम के स्तर से मेल खाने के लिए व्याख्यात्मकता को सही आकार देने के बारे में है—हर AI उपयोग मामले को ऐसे नहीं मानना जैसे कि वह एक स्वायत्त वाहन चला रहा हो। टीमें AI प्रणालियों को इस तरह डिजाइन करके इसे हासिल कर सकती हैं कि वे उत्पादक, जवाबदेह और मानवीय इरादे के अनुरूप हों, बिना तैनाती को अधिक जटिल बनाए।

कुछ व्यावहारिक रणनीतियों में शामिल हैं:

  • AI को उन जगहों पर तैनात करना जहां मनुष्य पहले से ही संघर्ष कर रहे हैं: AI का उपयोग जटिल, उच्च-मात्रा वाले क्षेत्रों जैसे संसाधन आवंटन, कार्य प्राथमिकता, या बैकलॉग प्रबंधन में मानवीय निर्णय लेने को बढ़ाने के लिए करें जहां गति और पैमाना पूर्ण निश्चितता से अधिक मायने रखते हैं।
  • AI सफलता मापदंडों को परिभाषित करना: हर मॉडल को समझाने की कोशिश करने के बजाय, परिभाषित करें कि अच्छे परिणाम कैसे दिखते हैं। क्या समयसीमाएँ सुधर रही हैं? क्या पुनर्कार्य कम हो रहा है? क्या उपयोगकर्ता AI सुझावों को अधिक बार स्वीकार कर रहे हैं? ये संकेतक इस बात की स्पष्ट तस्वीर देते हैं कि AI कितना अच्छा काम कर रहा है बनाम यह कि मॉडल कैसे निर्णय लेता है इसके विवरण में खोदना।
  • विश्वास सीमाएँ स्थापित करना: सहनशीलता निर्धारित करें कि AI आउटपुट को कब स्वतः स्वीकार किया जा सकता है, झंडी दिखाई जा सकती है या मानवीय समीक्षा के लिए भेजा जा सकता है, और एक प्रतिक्रिया लूप बनाएं ताकि सिस्टम को समय के साथ सीखने और सुधारने में मदद मिल सके।
  • टीमों को सही प्रश्न पूछने के लिए प्रशिक्षित करना: हर टीम को AI विशेषज्ञ बनाने के बजाय, उन्हें सही प्रश्न पूछने के लिए प्रशिक्षित करने पर ध्यान दें, जैसे कि AI का उपयोग किस समस्या को हल करने के लिए किया जा रहा है, कौन से जोखिम सबसे अधिक मायने रखते हैं, और प्रभावशीलता की निगरानी कैसे की जाएगी।
  • मानवीय तर्क को प्राथमिकता देना: सबसे अच्छी AI प्रणालियाँ भी मानवीय निगरानी से लाभान्वित होती हैं। ऐसे वर्कफ़्लो बनाएं जो लोगों को साझा जवाबदेही बनाने के तरीके के रूप में AI को मान्य, सही या ओवरराइड करने की अनुमति देते हैं।

इस दृष्टिकोण की तुलना कार चलाने से की जा सकती है। हम में से अधिकांश लोग नहीं समझते कि ट्रांसमिशन कैसे काम करता है, ईंधन दहन कैसे त्वरण शक्ति देता है, या सेंसर पास के वाहनों का पता कैसे लगाते हैं, लेकिन यह हमें ड्राइविंग करने से नहीं रोकता है। जिस पर हम भरोसा करते हैं वह डैशबोर्ड है: एक सरलीकृत इंटरफ़ेस जो सुरक्षित रूप से संचालन के लिए आवश्यक जानकारी प्रदान करता है, जैसे गति, ईंधन स्तर और रखरखाव अलर्ट।

AI प्रणालियों को भी इसी तरह नियंत्रित किया जाना चाहिए। हमें हर बार इंजन चलने पर बोनट खोलने की जरूरत नहीं है। जिस चीज की जरूरत है वह है संकेतकों का एक स्पष्ट सेट जो दिखाए कि कब कुछ गड़बड़ है, कहाँ मानवीय हस्तक्षेप की आवश्यकता हो सकती है, और आगे क्या कदम उठाने हैं। यह मॉडल संगठनों को तकनीकी जटिलता में डूबे बिना उन जगहों पर निगरानी पर ध्यान केंद्रित करने की अनुमति देता है जहां इसकी आवश्यकता है।

अपने ह

Beth Weeks is the executive vice president of development at Planview. She leads the software development team for Planview’s products that deliver Strategic Portfolio Management, Professional Services Automation, Enterprise Architecture, and Ideation capabilities.

Beth has served in software executive roles for the last 20 years and helped software companies transform their enterprise on-premises products to well-architected Software as a Service (SaaS) and Platform as a Service (PaaS) solutions. She also has experience building highly productive and collaborative teams, which are globally distributed through North America, EMEA, and India.

Before joining Planview in 2017, Beth was senior vice president of product engineering and cloud operations at WP Engine, leading product development and cloud operations for multiple global data centers hosting more than 500,000 websites. She also has held leadership positions at Zilliant, Vignette (acquired by Open Text), and Intergraph.