рдХреГрддреНрд░рд┐рдо рдмреБрджреНрдзрд┐рдорддреНрддрд╛
рдкрд╛рд░рджрд░реНрд╢рд┐рддрд╛ рдХреЗ рдирдП рд╕реНрддрд░ рдХреА рд╢реБрд░реБрдЖрдд рдПрдЖрдИ рдХреЗ рд╕рд╛рде – рд╡рд┐рдЪрд╛рд░ рдиреЗрддрд╛

बालाकृष्ण डीआर, सीनियर वाइस प्रेसिडेंट, सर्विस ऑफरिंग हेड – ऊर्जा, संचार, सेवाएं, और एआई और ऑटोमेशन सेवाएं, इन्फोसिस में।
9 जनवरी, 2020 को विश्व स्वास्थ्य संगठन ने कोरोनावायरस के प्रकोप की सूचना चीन में दी थी। तीन दिन पहले, अमेरिका के सेंटर्स फॉर डिजीज कंट्रोल एंड प्रिवेंशन ने इसकी जानकारी दी थी। लेकिन एक कैनेडियन हेल्थ मॉनिटरिंग प्लेटफ़ॉर्म ने उन्हें पीछे छोड़ दिया था, जिसने 31 दिसंबर, 2019 को अपने ग्राहकों को प्रकोप की सूचना दी थी! यह प्लेटफ़ॉर्म, ब्लू डॉट विदेशी भाषा की समाचार रिपोर्टों, जानवरों और पौधों के रोग नेटवर्क, और आधिकारिक घोषणाओं को खंगालने वाले कृत्रिम बुद्धिमत्ता से संचालित एल्गोरिदम का उपयोग करता है ताकि अपने ग्राहकों को सावधानी से खतरनाक क्षेत्रों जैसे वुहान से बचने के लिए आगाह किया जा सके।
पिछले कुछ वर्षों में, कृत्रिम बुद्धिमत्ता आज की तेजी से बदलती अर्थव्यवस्था में परिवर्तन, विघटन और प्रतिस्पर्धी लाभ का मुख्य स्रोत बन गई है। महामारी के ट्रैकिंग से लेकर रक्षा तक, स्वास्थ्य सेवा से लेकर स्वायत्त वाहनों तक और बीच में सब कुछ, एआई व्यापक रूप से अपनाया जा रहा है। पीडब्ल्यूसी का अनुमान है कि एआई 2030 में वैश्विक अर्थव्यवस्था में 15.7 ट्रिलियन डॉलर तक का योगदान कर सकता है, इसकी वर्तमान वृद्धि दर पर।
लेकिन एआई से जुड़ी सभी आशाओं के बावजूद, यह अभी भी पारदर्शिता और विश्वसनीयता के आसपास अनुत्तरित प्रश्न प्रस्तुत करता है। जीवन, मृत्यु और व्यक्तिगत कल्याण के लिए महत्वपूर्ण क्षेत्रों में एआई प्रणालियों की निर्णय लेने की क्षमता को समझने, भविष्यवाणी करने और विश्वास करने की आवश्यकता है।
अज्ञात में
जब स्वचालित तर्क प्रणालियों को पहली बार निर्णय लेने में सहायता के लिए पेश किया गया था, तो उन्होंने हाथ से तैयार किए गए नियमों पर भरोसा किया। जबकि इससे उनकी व्याख्या करना और उनके व्यवहार को संशोधित करना आसान हो गया, वे विस्तार योग्य नहीं थे। मशीन लर्निंग आधारित मॉडल इस आवश्यकता को पूरा करने के लिए आए; उन्हें मानव हस्तक्षेप की आवश्यकता नहीं थी और वे डेटा से प्रशिक्षित हो सकते थे – जितना अधिक उतना बेहतर। जबकि गहरे शिक्षण मॉडल अपनी मॉडलिंग क्षमता और लागू होने वाले दायरे में अभूतपूर्व हैं, यह तथ्य कि ये मॉडल अधिकांश भाग के लिए ब्लैक बॉक्स हैं, उनके व्यापक उपयोग के संदर्भ में उनकी सत्यता, विश्वसनीयता और पूर्वाग्रह के बारे में चिंताजनक प्रश्न उठाते हैं।
वर्तमान में गहरे शिक्षण मॉडल द्वारा उपयोग किए जाने वाले तर्क को ट्रेस करने के लिए कोई सीधा तंत्र नहीं है। ब्लैक-बॉक्स प्रकृति वाले मशीन लर्निंग मॉडल के साथ, व्याख्या का प्राथमिक प्रकार पोस्ट-हॉक व्याख्या है, जिसका अर्थ है कि व्याख्या मॉडल द्वारा उत्पन्न आउटपुट की प्रकृति और गुणों से निकाली जाती है। न्यूरल नेटवर्क (जैसा कि पहले गहरे शिक्षण को जाना जाता था) से नियमों को निकालने के प्रारंभिक प्रयास वर्तमान में नहीं किए जा रहे हैं क्योंकि नेटवर्क बहुत बड़े और विविध हो गए हैं जो नियम निकालने के लिए ट्रैक्टेबल नहीं हैं। इसलिए, एआई मॉडलिंग के बहुत तंत्र में व्याख्या और पारदर्शिता को पेश करने की तत्काल आवश्यकता है।
रात का अंत, प्रकाश की शुरुआत
इस चिंता ने मशीन लर्निंग में पारदर्शिता की आवश्यकता पैदा की है, जिसके परिणामस्वरूप व्याख्या योग्य एआई, या एक्सएआई का विकास हुआ है। यह एआई निर्णय लेने में विश्वास को रोकने वाले मुख्य मुद्दों को संबोधित करना चाहता है – जिसमें पूर्वाग्रह और पारदर्शिता शामिल है। एआई का यह नया क्षेत्र यह सुनिश्चित करने के लिए जिम्मेदारी लाता है कि एआई समाज को बेहतर परिणामों के साथ लाभान्वित करे।
एक्सएआई एआई प्रणालियों और एल्गोरिदम में निहित पूर्वाग्रह के साथ मदद करने में महत्वपूर्ण होगा, जो लोगों द्वारा प्रोग्राम किए जाते हैं जिनकी पृष्ठभूमि और अनुभव अनजाने में पूर्वाग्रह वाली एआई प्रणालियों के विकास की ओर ले जाते हैं। अवांछित पूर्वाग्रह जैसे कि किसी विशेष राष्ट्रीयता या जातीयता के खिलाफ भेदभाव प्रणाली में शामिल हो सकते हैं क्योंकि यह वास्तविक डेटा पर आधारित मूल्य जोड़ता है। उदाहरण के लिए, यह पाया जा सकता है कि टाइपिकल लोन डिफॉल्टर किसी विशेष जातीय पृष्ठभूमि से आते हैं, हालांकि इस आधार पर कोई प्रतिबंधक नीति लागू करना न्यायसंगत अभ्यासों के खिलाफ हो सकता है। त्रुटिपूर्ण डेटा भी पूर्वाग्रह का कारण है। उदाहरण के लिए, यदि कोई विशिष्ट चेहरा पहचान स्कैनर 5% समय के लिए असटीक होता है क्योंकि व्यक्ति की त्वचा का रंग या चेहरे पर पड़ने वाली रोशनी के कारण, तो यह पूर्वाग्रह पैदा कर सकता है। अंत में, यदि आपका नमूना डेटा पूरी आबादी का सही प्रतिनिधित्व नहीं करता है, तो पूर्वाग्रह अपरिहार्य है।
एक्सएआई एआई प्रणालियों के ब्लैक बॉक्स निर्णयों के बारे में कैसे पहुंचा जाए, इसका पता लगाने का प्रयास करता है। यह निर्णय लेने में शामिल चरणों और मॉडलों की जांच करने और समझने का प्रयास करता है। यह महत्वपूर्ण प्रश्नों का उत्तर देता है: एआई प्रणाली ने किसी विशिष्ट भविष्यवाणी या निर्णय क्यों लिया? एआई प्रणाली ने कुछ और क्यों नहीं किया? एआई प्रणाली कब सफल या विफल रही? कब एआई प्रणाली निर्णय में पर्याप्त विश्वास प्रदान करती है कि आप इसे विश्वास कर सकते हैं, और एआई प्रणाली त्रुटियों को कैसे सुधारती है?
व्याख्या योग्य, अनुमानित और ट्रेसेबल एआई
एआई प्रणालियों में व्याख्या प्राप्त करने का एक तरीका उन मशीन लर्निंग एल्गोरिदम का उपयोग करना है जो स्वाभाविक रूप से व्याख्या योग्य होते हैं। उदाहरण के लिए, मशीन लर्निंग के सरल रूप जैसे निर्णय पेड़, बेयसियन वर्गीकरणकर्ता, और अन्य एल्गोरिदम जिनमें उनके निर्णय लेने में कुछ मात्रा में ट्रेसेबिलिटी और पारदर्शिता होती है। वे महत्वपूर्ण एआई प्रणालियों के लिए आवश्यक दृश्यता प्रदान कर सकते हैं बिना बहुत अधिक प्रदर्शन या सटीकता को त्यागे।
गहरे शिक्षण और अन्य अधिक जटिल एल्गोरिदमिक दृष्टिकोणों के लिए व्याख्या प्रदान करने की आवश्यकता को देखते हुए, यूएस डिफेंस एडवांस्ड रिसर्च प्रोजेक्ट्स एजेंसी (डीएआरपीए) विभिन्न वित्त पोषित अनुसंधान पहल के माध्यम से व्याख्या योग्य एआई समाधानों का उत्पादन करने के प्रयासों को आगे बढ़ा रही है। डीएआरपीए एआई व्याख्या को तीन भागों में वर्णित करता है जिसमें भविष्यवाणी सटीकता शामिल है, जिसका अर्थ है कि मॉडल भविष्य के निर्णय लेने में सुधार के लिए निष्कर्षों को कैसे पहुंचाया जाए; निर्णय समझ और विश्वास मानव उपयोगकर्ताओं और ऑपरेटरों से, साथ ही एआई प्रणालियों द्वारा की गई क्रियाओं की जांच और ट्रेसेबिलिटी।
ट्रेसेबिलिटी मानव को एआई निर्णय लूप में प्रवेश करने और आवश्यकता होने पर अपने कार्यों को रोकने या नियंत्रित करने की क्षमता प्रदान करेगी। एक एआई प्रणाली को न केवल कुछ कार्य करने या निर्णय लेने की अपेक्षा की जाती है, बल्कि यह भी कि वह अपने निर्णयों के पीछे के तर्क की पारदर्शी रिपोर्ट प्रदान करे।
वर्तमान में एल्गोरिदम या यहां तक कि एक्सएआई दृष्टिकोणों का मानकीकरण संभव नहीं है, लेकिन यह संभव हो सकता है कि पारदर्शिता के स्तर / व्याख्या योग्यता के स्तर को मानकीकृत किया जाए। मानक संगठन अंत उपयोगकर्ताओं और प्रौद्योगिकी विक्रेताओं के बीच संचार को सुविधाजनक बनाने के लिए इन पारदर्शिता के स्तरों की सामान्य, मानक समझ पर पहुंचने का प्रयास कर रहे हैं।
जैसे ही सरकारें, संस्थान, उद्यम और सामान्य जनता एआई-आधारित प्रणालियों पर निर्भर होते जा रहे हैं, निर्णय लेने की प्रक्रिया की स्पष्ट पारदर्शिता के माध्यम से उनका विश्वास जीतना मूलभूत हो जाएगा। व्याख्या योग्य एआई पर विशेष रूप से समर्पित पहले वैश्विक सम्मेलन, इंटरनेशनल जॉइंट कॉन्फ्रेंस ऑन आर्टिफिशियल इंटेलिजेंस: वर्कशॉप ऑन एक्सप्लेनेबल आर्टिफिशियल इंटेलिजेंस का शुभारंभ, यह प्रमाण है कि एक्सएआई का युग आ गया है।












