Connect with us

рдПрдЖрдИ рдмрд╛рдзрд╛ рд╡рд┐рдлрд▓рддрд╛ рдирд╣реАрдВ рд╣реИред рдпрд╣ рдмрд╣реБрдд рдзреАрдореА рд╡рд┐рдлрд▓рддрд╛ рд╣реИред

рд╡рд┐рдЪрд╛рд░ рдиреЗрддрд╛

рдПрдЖрдИ рдмрд╛рдзрд╛ рд╡рд┐рдлрд▓рддрд╛ рдирд╣реАрдВ рд╣реИред рдпрд╣ рдмрд╣реБрдд рдзреАрдореА рд╡рд┐рдлрд▓рддрд╛ рд╣реИред

mm
A conceptual photograph showing a hand approaching a transparent glass interface with a glowing green speedometer gauge and an upward-pointing arrow. The background shows an out-of-focus, tangled knot of black wires and red light.

एआई बाधा विफलता नहीं है। यह बहुत धीमी विफलता है।

आर्टिफ़िशियल इंटेलिजेंस (एआई) संगठनों के संचालन, नवाचार और विकास के तरीके को बदल रहा है। उद्योगों में भर, संगठन एआई का उपयोग कार्य प्रवाह को सुव्यवस्थित करने, नए दक्षता को अनलॉक करने और तेज़, अधिक विश्वासपात्र निर्णय लेने के लिए समर्थन करने के लिए कर रहे हैं। जैसे ही एआई आधुनिक उत्पादकता के पीछे इंजन के रूप में शांति से विकसित हो रहा है, यह संगठनों को अधिक चपलता और पैमाने पर प्राप्त करने में मदद करता है।

हालांकि, एआई के कई मापनीय लाभों के बावजूद, कुछ अप्रत्याशित हो रहा है। कई उद्यम एक दीवार से टकरा रहे हैं। नवाचार को तेज़ करने के बजाय, कुछ टीमें जटिलता, जोखिम प्रबंधन और अज्ञात के बढ़ते डर में फंस रही हैं।

क्यों? क्योंकि हम इसे गलत तरीके से सोच रहे हैं।

एआई को अक्सर एक प्रौद्योगिकी के रूप में गलत समझा जाता है जिसे विश्वास करने से पहले पूरी तरह से नियंत्रित किया जाना चाहिए। यह गलत धारणा से निकलता है कि सुरक्षा के लिए निश्चितता एक पूर्वापेक्ष है। लेकिन यह व्याख्या एआई के बारे में क्या है और यह कैसे मूल्य प्रदान करता है, इस बिंदु को याद करती है। एआई एक अनुकूली उपकरण है जो उपयोग के साथ सीखने और विकसित करने के लिए डिज़ाइन किया गया है। इसे पारंपरिक सॉफ़्टवेयर की तरह व्यवहार करना चाहिए, यह इसकी प्रकृति की एक गलत व्याख्या है और इसकी संभावना को कम करता है।

एआई को जिम्मेदारी से हार्नेस करने के प्रयास में, कई संगठनों ने अनजाने में जोखिम मिटिगेशन को एक बोतलनेक में बदल दिया है। उद्योगों में, टीमें एआई को तैनात करने से हिचकिचाती हैं जब तक कि वे इसकी निर्णय लेने की प्रक्रिया के हर स्तर को विच्छेद, समझा और उचित ठहरा नहीं सकते, अक्सर एक अव्यावहारिक डिग्री तक। हालांकि यह स्तर की जांच अच्छी तरह से इरादे की दिलचस्पी को दर्शाता है, यह अक्सर एआई के बहुत उद्देश्य को पराजित करता है: अंतर्दृष्टि को तेज़ करना, टीमों को बढ़ाना और बड़े पैमाने पर समस्याओं का समाधान करना।

यह समय है कि हम इसे फिर से कैलिब्रेट करें और सभी नियंत्रण की मांग से दूर होकर एक मॉडल की ओर बढ़ें जो लचीलापन, उत्पादकता और व्यावहारिक समझदारी पर जोर देता है – बिना नवाचार को रोके।

ब्लैक बॉक्स का डर प्रगति को रोक रहा है

लोगों को उन प्रणालियों के साथ एक प्राकृतिक असुविधा है जिन्हें वे पूरी तरह से नहीं समझते हैं, और एआई टूल – विशेष रूप से बड़े, उत्पादक मॉडल – अक्सर ऐसे तरीकों से काम करते हैं जो आसान व्याख्या से इनकार करते हैं। परिणामस्वरूप, कई नेता एक जाल में गिर जाते हैं: यदि वे हर एआई निर्णय की पूरी तरह से व्याख्या नहीं कर सकते हैं, तो प्रणाली पर विश्वास नहीं किया जा सकता है।

इस तरह, कई संगठन निगरानी प्रक्रियाओं को अधिक इंजीनियर करते हैं, क्रॉस-फ़ंक्शनल समीक्षा, अनुपालन जांच और व्याख्या ऑडिट जोड़ते हैं, यहां तक कि कम जोखिम वाले उपयोग के मामलों के लिए भी। जब टीमें व्याख्या को हर ब्लैक बॉक्स खोलने की आवश्यकता के रूप में मानती हैं, तो वे एआई कार्यान्वयन को समीक्षा के अंतहीन चक्रों में फंसाती हैं। यह एक “ऑपरेशनल पैरालिसिस” बनाता है जिसमें टीमें एआई के साथ गलत चीज़ करने से इतनी डरती हैं कि वे बिल्कुल कुछ नहीं करती हैं, जिसके परिणामस्वरूप गति का एक स्थिर क्षरण होता है, ठप हुए पहल, और अंततः, खोया हुआ अवसर।

समस्या नियंत्रण प्रणालियों के पीछे के इरादे में नहीं है; यह जोखिम मिटिगेशन को नियंत्रण के बराबर मानने का धारणा है। व्यवहार में, एआई प्रणालियों को पूर्णता के बजाय लचीलापन के लिए डिज़ाइन करना एक अधिक प्रभावी दृष्टिकोण है। मुख्य बात यह है कि एक प्रक्रियात्मक दृष्टिकोण को परिणाम-आधारित सोच के पक्ष में छोड़ देना है।

एआई में लचीलापन यह स्वीकार करना है कि गलतियां होंगी और गार्डरेल बनाना है जो उन्हें पता लगा सकता है और उन्हें ठीक कर सकता है। इसका अर्थ है बातचीत को बदलना कि कैसे हर संभावित विफलता को रोकने के लिए, जब चीजें गलत हो जाती हैं तो तेजी से पता लगाने और हस्तक्षेप करने के लिए कैसे सुनिश्चित किया जाए।

अधिकांश आधुनिक प्रणालियों का निर्माण इस समझ के साथ किया जाता है कि कुछ स्तर की त्रुटि होगी। उदाहरण के लिए, साइबर सुरक्षा उपकरण 100% अप्रतिभेद्य नहीं होने की उम्मीद नहीं है। वे ऐसा नहीं होने के लिए डिज़ाइन किए गए हैं। इसके बजाय, वे पता लगाने, प्रतिक्रिया करने और तेजी से पुनर्प्राप्ति प्रोटोकॉल बनाने के लिए डिज़ाइन किए गए हैं। एआई के साथ भी ऐसी ही अपेक्षाएं लागू होनी चाहिए।

हर एआई निर्णय में पूरी दृश्यता की मांग करना व्यावहारिक नहीं है और मूल्य सृजन के लिए प्रतिकूल हो सकता है। इसके बजाय, संगठनों को “डैशबोर्ड-स्तर की व्याख्या” का समर्थन करना चाहिए जो पर्याप्त संदर्भ और निगरानी प्रदान करता है तो त्रुटियों का पता लगाने और सुरक्षा उपाय लागू करने के लिए, उद्यम नवाचार को रोकने के बिना।

एआई तैनाती को जटिल न बनाएं

संगठनों को एआई कार्यान्वयन में पूर्ण अंतरसंचालन को अपनाना चाहिए, चाहे उपयोग का मामला कुछ भी हो। पूर्ण अंतरसंचालन के बजाय, यह सुनिश्चित करता है कि एकीकरण और प्रणालियों में अधिक मूल्य अनलॉक हो। भविष्य में, उद्यमों में, हम देख सकते हैं कि सामान्य लक्ष्यों की ओर काम करने वाले एआई एजेंटों की आभासी सेनाएं हैं।

यह दृष्टिकोण एआई उपयोग के मामले के जोखिम के स्तर से मेल खाने के लिए समझदारी को सही आकार देने के बारे में है – हर एआई उपयोग के मामले को स्वायत्त वाहन चलाने के रूप में व्यवहार करना बंद करें। टीमें एआई प्रणालियों को डिज़ाइन करके इसे प्राप्त कर सकती हैं जो उत्पादक, जिम्मेदार और मानवीय इरादे के साथ संरेखित हैं बिना तैनाती को जटिल बनाए।

कुछ व्यावहारिक रणनीतियों में शामिल हैं:

  • एआई को तैनात करना जहां मानव पहले से संघर्ष कर रहे हैं: एआई का उपयोग जटिल, उच्च-मात्रा वाले क्षेत्रों में मानव निर्णय लेने को बढ़ाने के लिए करें जैसे संसाधन आवंटन, कार्य प्राथमिकता, या बैकलॉग प्रबंधन जहां गति और पैमाने पर निश्चितता से अधिक मायने रखते हैं।
  • एआई सफलता मेट्रिक्स को परिभाषित करना: हर मॉडल की व्याख्या करने की कोशिश करने के बजाय, अच्छे परिणामों को परिभाषित करें। क्या समयसीमा में सुधार हो रहा है? क्या पुनर्काम कम हो रहा है? क्या उपयोगकर्ता एआई सुझावों को अधिक बार स्वीकार कर रहे हैं? ये संकेतक यह देखने के लिए एक स्पष्ट चित्र प्रदान करते हैं कि एआई कितनी अच्छी तरह काम कर रहा है, मॉडल निर्णय लेने के विवरण में खुदाई करने के बजाय।
  • आत्मविश्वास के स्तर की स्थापना: एआई आउटपुट को स्वचालित रूप से स्वीकार किया जा सकता है, ध्वजांकित या मानव समीक्षा के लिए भेजा जा सकता है, और प्रणाली को समय के साथ सीखने और सुधारने में मदद करने के लिए एक प्रतिक्रिया पाश बनाएं।
  • टीमों को सही प्रश्न पूछने के लिए प्रशिक्षित करना: हर टीम को एआई विशेषज्ञ बनाने के बजाय, उन्हें सही प्रश्न पूछने पर ध्यान केंद्रित करें, जैसे कि क्या समस्या एआई का उपयोग किया जा रहा है, क्या जोखिम सबसे ज्यादा मायने रखते हैं, और कैसे प्रभावशीलता की निगरानी की जाएगी।
  • मानव तर्क को प्राथमिकता देना: यहां तक कि सबसे अच्छे एआई प्रणालियों को मानव पर्यवेक्षण का लाभ होता है। कार्य प्रवाह बनाएं जो लोगों को एआई को सत्यापित करने, सही करने या ओवरराइड करने की अनुमति देते हैं, एक साझा जिम्मेदारी बनाने के लिए।

यह दृष्टिकोण एक कार चलाने की तरह तुलना की जा सकती है। हममें से अधिकांश नहीं जानते कि एक ट्रांसमिशन कैसे काम करता है, ईंधन दहन त्वरण को कैसे शक्ति देता है, या सेंसर निकटवर्ती वाहनों का पता कैसे लगाते हैं, लेकिन यह हमें ड्राइविंग से नहीं रोकता है। हम जो भरोसा करते हैं वह डैशबोर्ड है: एक सरल इंटरफ़ेस जो हमें सुरक्षित रूप से संचालित करने के लिए आवश्यक जानकारी प्रदान करता है, जैसे कि गति, ईंधन स्तर और रखरखाव अलर्ट।

एआई प्रणालियों को इसी तरह से शासित किया जाना चाहिए। हमें हर बार इंजन चलाने पर हुड खोलने की जरूरत नहीं है। जो जरूरी है वह एक स्पष्ट सेट है जो संकेत देता है कि जब कुछ गलत हो जाए, तो मानव हस्तक्षेप की आवश्यकता हो सकती है, और क्या अगले चरण होंगे। यह मॉडल संगठनों को वहां निगरानी पर ध्यान केंद्रित करने की अनुमति देता है जहां यह मायने रखता है बिना तकनीकी जटिलता में डूबे हुए।

अपने रास्ते में खड़े न हों

एआई कभी भी निर्दोष नहीं होगा। और यदि संगठन इसे एक ऐसे मानक के लिए रखते हैं जो कि किसी भी मानव टीम को पूरा नहीं कर सकता है, तो वे काम को पुनः कल्पना करने, निर्णय लेने में तेजी लाने और पूरे उद्यम में संभावना को अनलॉक करने का अवसर खोने का जोखिम उठाते हैं।

लचीलापन पर नियंत्रण, डैशबोर्ड-स्तर की व्याख्या को अपनाने और संदर्भ के अनुसार निगरानी को अनुकूलित करके, हम एआई के बारे में अधिक सोच सकते हैं और इसके साथ अधिक सफलता बना सकते हैं।

рдмреЗрде рд╡реАрдХреНрд╕ рдкреНрд▓рд╛рдирд╡реНрдпреВ рдореЗрдВ рд╡рд┐рдХрд╛рд╕ рдХреЗ рдХрд╛рд░реНрдпрдХрд╛рд░реА рдЙрдкрд╛рдзреНрдпрдХреНрд╖ рд╣реИрдВред рд╡рд╣ рдкреНрд▓рд╛рдирд╡реНрдпреВ рдХреЗ рдЙрддреНрдкрд╛рджреЛрдВ рдХреЗ рд▓рд┐рдП рд╕реЙрдлреНрдЯрд╡реЗрдпрд░ рд╡рд┐рдХрд╛рд╕ рдЯреАрдо рдХрд╛ рдиреЗрддреГрддреНрд╡ рдХрд░рддреА рд╣реИрдВ рдЬреЛ рд░рдгрдиреАрддрд┐рдХ рдкреЛрд░реНрдЯрдлреЛрд▓рд┐рдпреЛ рдкреНрд░рдмрдВрдзрди, рдкреЗрд╢реЗрд╡рд░ рд╕реЗрд╡рд╛ рд╕реНрд╡рдЪрд╛рд▓рди, рдЙрджреНрдпрдо рд╡рд╛рд╕реНрддреБрдХрд▓рд╛ рдФрд░ рд╡рд┐рдЪрд╛рд░рдзрд╛рд░рд╛ рдХреНрд╖рдорддрд╛рдПрдВ рдкреНрд░рджрд╛рди рдХрд░рддреА рд╣реИрдВред

рдмреЗрде рдиреЗ рдкрд┐рдЫрд▓реЗ 20 рд╡рд░реНрд╖реЛрдВ рд╕реЗ рд╕реЙрдлреНрдЯрд╡реЗрдпрд░ рдХрд╛рд░реНрдпрдХрд╛рд░реА рднреВрдорд┐рдХрд╛рдУрдВ рдореЗрдВ рдХрд╛рдо рдХрд┐рдпрд╛ рд╣реИ рдФрд░ рд╕реЙрдлреНрдЯрд╡реЗрдпрд░ рдХрдВрдкрдирд┐рдпреЛрдВ рдХреЛ рдЙрдирдХреЗ рдЙрджреНрдпрдо рдСрди-рдкреНрд░рд┐рдорд╛рдЗрд╕реЗрд╕ рдЙрддреНрдкрд╛рджреЛрдВ рдХреЛ рдЕрдЪреНрдЫреА рддрд░рд╣ рд╕реЗ рд╡рд╛рд╕реНрддреБрдХрд▓рд╛ рд╕реЙрдлреНрдЯрд╡реЗрдпрд░ рдХреЗ рд░реВрдк рдореЗрдВ рд╕реЗрд╡рд╛ (рдПрд╕рдПрдПрдПрд╕) рдФрд░ рдкреНрд▓реЗрдЯрдлрд╝реЙрд░реНрдо рдХреЗ рд░реВрдк рдореЗрдВ рд╕реЗрд╡рд╛ (рдкреАрдПрдПрдПрд╕) рд╕рдорд╛рдзрд╛рдиреЛрдВ рдореЗрдВ рдмрджрд▓рдиреЗ рдореЗрдВ рдорджрдж рдХреА рд╣реИред рдЙрд╕рдХреЗ рдкрд╛рд╕ рд╡рд┐рд╢реНрд╡ рд╕реНрддрд░ рдкрд░ рд╡рд┐рддрд░рд┐рдд рдЙрдЪреНрдЪ рдЙрддреНрдкрд╛рджрдХ рдФрд░ рд╕рд╣рдпреЛрдЧреА рдЯреАрдореЛрдВ рдХрд╛ рдирд┐рд░реНрдорд╛рдг рдХрд░рдиреЗ рдХрд╛ рдЕрдиреБрднрд╡ рднреА рд╣реИ, рдЬреЛ рдЙрддреНрддрд░реА рдЕрдореЗрд░рд┐рдХрд╛, рдИрдПрдордИрдП рдФрд░ рднрд╛рд░рдд рдореЗрдВ рд╡рд┐рддрд░рд┐рдд рд╣реИрдВред

рдкреНрд▓рд╛рдирд╡реНрдпреВ рдореЗрдВ 2017 рдореЗрдВ рд╢рд╛рдорд┐рд▓ рд╣реЛрдиреЗ рд╕реЗ рдкрд╣рд▓реЗ, рдмреЗрде рдбрдмреНрд▓реНрдпреВрдкреА рдЗрдВрдЬрди рдореЗрдВ рдЙрддреНрдкрд╛рдж рдЗрдВрдЬреАрдирд┐рдпрд░рд┐рдВрдЧ рдФрд░ рдХреНрд▓рд╛рдЙрдб рдСрдкрд░реЗрд╢рдиреНрд╕ рдХреЗ рд╡рд░рд┐рд╖реНрда рдЙрдкрд╛рдзреНрдпрдХреНрд╖ рдереАрдВ, рдЬреЛ рд╡реИрд╢реНрд╡рд┐рдХ рдбреЗрдЯрд╛ рдХреЗрдВрджреНрд░реЛрдВ рдХреЗ рд▓рд┐рдП рдЙрддреНрдкрд╛рдж рд╡рд┐рдХрд╛рд╕ рдФрд░ рдХреНрд▓рд╛рдЙрдб рдСрдкрд░реЗрд╢рдиреНрд╕ рдХрд╛ рдиреЗрддреГрддреНрд╡ рдХрд░рддреА рдереАрдВ, рдЬреЛ 500,000 рд╕реЗ рдЕрдзрд┐рдХ рд╡реЗрдмрд╕рд╛рдЗрдЯреЛрдВ рдХреА рдореЗрдЬрдмрд╛рдиреА рдХрд░рддреА рдереАрдВред рдЙрдиреНрд╣реЛрдВрдиреЗ рдЬрд╝рд┐рд▓рд┐рдпрдВрдЯ, рд╡рд┐рдЧрдиреЗрдЯ (рдУрдкрди рдЯреЗрдХреНрд╕реНрдЯ рджреНрд╡рд╛рд░рд╛ рдЕрдзрд┐рдЧреНрд░рд╣рд┐рдд) рдФрд░ рдЗрдВрдЯрд░рдЧреНрд░рд╛рдл рдореЗрдВ рдиреЗрддреГрддреНрд╡ рдХреА рд╕реНрдерд┐рддрд┐ рднреА рдзрд╛рд░рдг рдХреА рд╣реИред