Connect with us

рдЬрдм рдПрдЖрдИ рдСрдкрд░реЗрд╢рди рдореЗрдВ рдкреНрд░рд╡реЗрд╢ рдХрд░рддрд╛ рд╣реИ, рддреЛ рд╡реНрдпрд╛рдЦреНрдпрд╛ рдХрд░рдирд╛ рдЕрдирд┐рд╡рд╛рд░реНрдп рд╣реЛ рдЬрд╛рддрд╛ рд╣реИ

рд╡рд┐рдЪрд╛рд░ рдиреЗрддрд╛

рдЬрдм рдПрдЖрдИ рдСрдкрд░реЗрд╢рди рдореЗрдВ рдкреНрд░рд╡реЗрд╢ рдХрд░рддрд╛ рд╣реИ, рддреЛ рд╡реНрдпрд╛рдЦреНрдпрд╛ рдХрд░рдирд╛ рдЕрдирд┐рд╡рд╛рд░реНрдп рд╣реЛ рдЬрд╛рддрд╛ рд╣реИ

mm

एंटरप्राइज एआई अपनाने ने एक अधिक व्यावहारिक चरण में प्रवेश किया है। प्रौद्योगिकी नेताओं के लिए, चुनौती अब यह नहीं है कि संगठन को यह समझाना है कि एआई की संभावना है। यह सुनिश्चित करना है कि संचालन निर्णयों को प्रभावित करने वाले सिस्टम को समझा, शासित और बचावा जा सकता है।

एआई तब अपनी जगह कमाता है जब लोग इस पर भरोसा करने को तैयार होते हैं। यह भरोसा केवल प्रदर्शन आंकड़ों पर नहीं टिका होता है। यह इस बात पर निर्भर करता है कि टीमें महसूस करती हैं कि उन्हें नियंत्रण बनाए रखने की अनुमति है या नहीं जब स्वचालन दैनिक कार्य प्रवाह का हिस्सा बन जाता है।

अनेक संगठनों में, यह नियंत्रण की भावना अभी भी अनिश्चित रहती है।

क्यों अस्पष्टता अपनाने को धीमा कर देती है

एआई अब आईटी ऑपरेशन में निहित है, सेवा अनुरोध मार्गदर्शन से लेकर घटना संबंध और क्षमता योजना तक। ये ऐसे वातावरण हैं जहां निर्णय आपस में जुड़े हुए हैं और गलतियां जल्दी बढ़ जाती हैं। जब एआई आउटपुट संदर्भ के बिना दिखाई देते हैं, तो टीमें अक्सर संकोच करती हैं। स्वचालन तकनीकी रूप से तैनात किया जा सकता है, लेकिन इसकी सिफारिशें दोहराई जाती हैं, विलंबित होती हैं या चुपचाप अलग कर दी जाती हैं।

यह व्यवहार अक्सर परिवर्तन के प्रतिरोध के रूप में गलत तरीके से पढ़ा जाता है। वास्तव में, यह उच्च जोखिम वाले संचालन वातावरण में पेशेवर जिम्मेदारी को दर्शाता है। सार्वजनिक उदाहरण एआई विफलता ने इस सावधानी को तेज कर दिया है। जब स्वचालित प्रणाली आत्मविश्वास से भरे हुए लेकिन गलत साबित होते हैं, तो नुकसान शायद ही कभी अकेले महत्वाकांक्षा के कारण होता है। यह अस्पष्टता से उत्पन्न होता है। यदि कोई यह नहीं समझा सकता कि एक निष्कर्ष कैसे पहुंचा गया, तो विश्वास कम हो जाता है, भले ही प्रणाली आमतौर पर सटीक हो।

आईटी टीमों के भीतर, यह सूक्ष्म रूप से प्रकट होता है। स्वचालन सलाहकार मोड में काम करता है, निष्पादन मोड में नहीं। इंजीनियर अभी भी परिणामों के लिए जिम्मेदार हैं, लेकिन उन्हें तर्क पर भरोसा करने की अपेक्षा की जाती है जिसे वे जांच नहीं सकते हैं। समय के साथ, यह असंतुलन घर्षण पैदा करता है। एआई मौजूद है, लेकिन इसका मूल्य सीमित है।

पारदर्शी एआई प्रक्रिया

अधिक पारदर्शिता और व्याख्या इस समस्या को हल कर सकती है और स्वचालित निर्णय लेने में जिम्मेदारी बहाल कर सकती है। व्याख्या योग्य एआई का अर्थ यह नहीं है कि हर आंतरिक गणना को उजागर किया जाए। इसका अर्थ यह है कि मानव ऑपरेटरों के लिए प्रासंगिक अंतर्दृष्टि प्रदान करना, जो डेटा ने एक निर्णय को प्रभावित किया, जिन शर्तों ने सबसे अधिक भार रखा, और आत्मविश्वास स्तरों का मूल्यांकन कैसे किया गया। यह संदर्भ टीमों को यह निर्णय लेने में मदद करता है कि आउटपुट संचालन वास्तविकता के साथ संरेखित है या नहीं।

इसे व्हाइट-बॉक्स एआई के रूप में भी जाना जाता है, व्याख्या योग्य एआई एक प्रकार की व्याख्यात्मक परत बनाता है जो बताती है कि एआई निर्णय कैसे लिए गए, न कि इसकी प्रक्रिया और तर्क को दृष्टि से छिपा हुआ छोड़ दिया जाता है। इसका अर्थ यह नहीं है कि केवल एआई सिस्टम एक अधिक जिम्मेदार फ्रेमवर्क का हिस्सा बन सकते हैं, बल्कि यह भी कि उपयोगकर्ता समझते हैं कि प्रत्येक प्रणाली कैसे काम करती है। यह भी意味 है कि एआई मॉडल की कमजोरियों की पहचान करने और पूर्वाग्रहों से सुरक्षा करने में सक्षम होने के लिए।

व्याख्या क्रिया में

घटना प्रबंधन पर विचार करें। एआई अक्सर अलर्ट को समूहित करने और संभावित कारणों का सुझाव देने के लिए उपयोग किया जाता है। बड़े उद्यम वातावरण में, एक重大 घटना के दौरान एक गलत वर्गीकृत निर्भरता समाधान में घंटों की देरी कर सकती है, कई टीमों को समानांतर जांच में खींचती है जब ग्राहक-सामना करने वाली सेवाएं अभी भी कमजोर हैं। जब ये सुझाव स्पष्ट व्याख्या के साथ आते हैं कि कौन से सिस्टम शामिल थे, कैसे निर्भरताएं पहुंचाई गईं या कौन से पिछले घटनाएं संदर्भित की गईं, तो इंजीनियर तुरंत सिफारिश का मूल्यांकन कर सकते हैं। यदि यह गलत साबित होता है, तो यह अंतर्दृष्टि मॉडल और प्रक्रिया दोनों को परिष्कृत करने के लिए उपयोग की जा सकती है।

बिना इस पारदर्शिता के, टीमें मैनुअल निदान पर लौट जाती हैं, चाहे एआई कितना भी उन्नत क्यों न हो।

जिम्मेदारी और स्वामित्व

व्याख्या भी यह बदल देती है कि जिम्मेदारी कैसे वितरित की जाती है। संचालन वातावरण में, जिम्मेदारी केवल इसलिए नहीं गायब हो जाती है क्योंकि एक निर्णय स्वचालित किया गया था। किसी को अभी भी परिणाम के पीछे खड़ा होना होगा। जब एआई खुद को व्याख्या कर सकता है, तो जिम्मेदारी स्पष्ट और अधिक प्रबंधनीय हो जाती है। निर्णयों की समीक्षा की जा सकती है, न्यायसंगत और सुधारा जा सकता है बिना रक्षात्मक काम के चारों ओर।

एक शासन लाभ भी है, हालांकि यह आंतरिक रूप से प्राथमिक प्रेरक नहीं है। मौजूदा डेटा सुरक्षा और जिम्मेदारी ढांचे पहले से ही संगठनों को कुछ संदर्भों में स्वचालित निर्णयों की व्याख्या करने की आवश्यकता है। जैसे ही एआई-विशिष्ट विनियमन विकसित होता है, पारदर्शिता की कमी वाले सिस्टम संगठनों को अनावश्यक जोखिम में डाल सकते हैं।

हालांकि, व्याख्या का मूल्य जिम्मेदारी की तुलना में लचीलापन में अधिक है। जो टीमें अपने सिस्टम को समझती हैं वे तेजी से पुनर्प्राप्त करती हैं। वे घटनाओं का समाधान अधिक कुशलता से करते हैं और स्वचालन पर भरोसा करने के बारे में पहले से ही बहस करने में कम समय बिताते हैं।

संचालन उत्कृष्टता के लिए एआई का डिज़ाइन

इंजीनियरों को प्रशिक्षित किया जाता है ताकि वे धारणाओं पर सवाल उठा सकें, निर्भरताओं की जांच कर सकें और परिणामों का परीक्षण कर सकें। जब स्वचालन इन प्रवृत्तियों का समर्थन करता है, न कि उन्हें बायपास करता है, तो अपनाना सहयोगी और प्रक्रिया का हिस्सा बन जाता है, न कि थोपा हुआ ढांचा।

निश्चित रूप से, इस तरह की प्रणाली बनाने में लागत है। व्याख्या योग्य एआई के लिए अनुशासित डेटा प्रथाओं, सोच-समझकर डिज़ाइन निर्णयों और जिम्मेदारी से आउटपुट की व्याख्या करने में सक्षम कुशल कर्मचारियों की आवश्यकता होती है। यह शायद ही कभी अस्पष्ट मॉडलों की तुलना में तेजी से स्केल हो सकता है जो केवल गति या नवाचार के लिए अनुकूलित हैं। फिर भी, इस निवेश पर रिटर्न स्थिरता है।

संगठन जो व्याख्या को प्राथमिकता देते हैं उन्हें कम रुकी हुई पहल और कम छाया निर्णय लेने का अनुभव होता है। स्वचालन ऑपरेशन का एक विश्वसनीय परत बन जाता है, एक समानांतर प्रयोग के बजाय जो अलगाव में चलता है। मूल्य का समय में सुधार नहीं होता है क्योंकि सिस्टम तेजी से हैं, बल्कि इसलिए कि टीमें उन्हें पूरी तरह से उपयोग करने को तैयार हैं।

जिम्मेदारी से स्केलिंग

जैसे ही एआई उद्यम बुनियादी ढांचे में एक स्थायी स्थिरता बन जाता है, सफलता अब महत्वाकांक्षा से अधिक विश्वसनीयता से परिभाषित की जाएगी। जो सिस्टम अपने निर्णयों की व्याख्या कर सकते हैं उन पर भरोसा करना आसान है, उन्हें परिष्कृत करना आसान है और जब परिणामों को चुनौती दी जाती है तो उन्हें खड़ा करना आसान है।

संचालन वातावरण में, बुद्धिमत्ता केवल तभी स्केल करती है जब समझ स्वचालन के साथ तालमेल बिठाती है।

рд╡рд┐рдорд▓рд░рд╛рдЬ рд╕рдВрдкрдердХреБрдорд╛рд░, рддрдХрдиреАрдХреА рдкреНрд░рдореБрдЦ - рдпреВрдХреЗ рдФрд░ рдЖрдпрд░рд▓реИрдВрдб, ManageEngine, рдПрдХ рдкреНрд░реАрд╕реЗрд▓реНрд╕ рдФрд░ рд░рдгрдиреАрддрд┐рдХ рдЦрд╛рддрд╛ рдкреНрд░рдмрдВрдзрдХ рд╣реИрдВ рдЬрд┐рдирдХреЗ рдкрд╛рд╕ рддрдХрдиреАрдХреА рдмрд┐рдХреНрд░реА, рдЦрд╛рддрд╛ рдкреНрд░рдмрдВрдзрди рдФрд░ рдЧреНрд░рд╛рд╣рдХ рд╕рдлрд▓рддрд╛ рдореЗрдВ 13 рд╡рд░реНрд╖реЛрдВ рдХрд╛ рдЕрдиреБрднрд╡ рд╣реИред рдЙрдиреНрд╣реЗрдВ рдЖрдИрдЯреАрдПрд╕рдПрдо, рдЖрдИрдЯреАрдУрдПрдо, рдПрд╕рдЖрдИрдИрдПрдо, рдПрдВрдб-рдкреЙрдЗрдВрдЯ рдкреНрд░рдмрдВрдзрди, рд╕реАрдЖрд░рдПрдо, рдПрдЯреАрдПрд╕, рдФрд░ рдПрдЪрд╕реАрдПрдо/рдПрдЪрдЖрд░рдЖрдИрдПрд╕ рдЕрдиреБрдкреНрд░рдпреЛрдЧреЛрдВ рдХреЛ рд╡реИрд╢реНрд╡рд┐рдХ рд╕реНрддрд░ рдкрд░ рд▓рд╛рдЧреВ рдХрд░рдиреЗ рдореЗрдВ рдЧрд╣рд░реА рддрдХрдиреАрдХреА рд╡рд┐рд╢реЗрд╖рдЬреНрдЮрддрд╛ рд╣реИред рдЙрдирдХреА рд╡рд┐рд╢реЗрд╖рдЬреНрдЮрддрд╛ рдЧреНрд░рд╛рд╣рдХ-рдХреЗрдВрджреНрд░рд┐рдд рд╕рдорд╛рдзрд╛рдиреЛрдВ рдХреЛ рд▓рдЧрд╛рддрд╛рд░ рд╡рд┐рддрд░рд┐рдд рдХрд░рдХреЗ, рдЙрддреНрдкрд╛рдж рдореВрд▓реНрдп рдХрд╛ рдкреНрд░рджрд░реНрд╢рди рдХрд░рдХреЗ, рдФрд░ рд╡рдлрд╛рджрд╛рд░, рд▓рдВрдмреА рдЕрд╡рдзрд┐ рдХреЗ рдЧреНрд░рд╛рд╣рдХ рд╕рдВрдмрдВрдзреЛрдВ рдХреЗ рд▓рд┐рдП рдЖрдзрд╛рд░ рдмрдирд╛рдиреЗ рдХреЗ рджреНрд╡рд╛рд░рд╛ рд░рд╛рдЬрд╕реНрд╡ рдФрд░ рдмрд╛рдЬрд╛рд░ рд╣рд┐рд╕реНрд╕реЗрджрд╛рд░реА рдореЗрдВ рд╡реГрджреНрдзрд┐ рдХрд░рдиреЗ рдореЗрдВ рд░рд╣реА рд╣реИред рд╡рд╣ рдЕрдкрдиреЗ рдЦрд╛рд▓реА рд╕рдордп рдореЗрдВ рдХреНрд░рд┐рдХреЗрдЯ рдЦреЗрд▓рдирд╛, рдкрдврд╝рдирд╛ рдФрд░ рдпрд╛рддреНрд░рд╛ рдХрд░рдирд╛ рдкрд╕рдВрдж рдХрд░рддреЗ рд╣реИрдВред