рд╡рд┐рдЪрд╛рд░ рдиреЗрддрд╛
рд╡реНрдпрд╛рдЦреНрдпрд╛рддреНрдордХрддрд╛ рд╣рд░ рдЙрджреНрдпреЛрдЧ рдХреА рдПрдЖрдИ рд╕рдорд╕реНрдпрд╛ рдХрд╛ рд╕рдорд╛рдзрд╛рди рдХрд░ рд╕рдХрддреА рд╣реИ: рдкрд╛рд░рджрд░реНрд╢рд┐рддрд╛ рдХреА рдХрдореА

द्वारा:मिगुएल जेटे, वीपी ऑफ आरएंडडी स्पीच, रेव。
इसके प्रारंभिक चरणों में, एआई शायद नई चीजों पर भरोसा कर सकता था। यह मशीन लर्निंग के लिए धीरे-धीरे सीखना और एक अपारदर्शी प्रक्रिया बनाए रखना ठीक था जहां एआई की गणना औसत उपभोक्ता के लिए समझना मुश्किल था। यह बदल रहा है। जैसे ही स्वास्थ्य सेवा, वित्त और आपराधिक न्याय प्रणाली जैसे अधिक उद्योग एआई का उपयोग लोगों के जीवन पर वास्तविक प्रभाव डालने के तरीकों से करना शुरू करते हैं, अधिक लोग यह जानना चाहते हैं कि एल्गोरिदम का उपयोग कैसे किया जा रहा है, डेटा कैसे सोर्स किया जा रहा है, और इसकी क्षमताएं कितनी सटीक हैं। यदि कंपनियां अपने बाजारों में नवाचार के अग्रणी रहना चाहती हैं, तो उन्हें ऐसे एआई पर भरोसा करने की आवश्यकता है जिस पर उनके दर्शक भरोसा करें। एआई व्याख्यात्मकता उस संबंध को गहरा करने के लिए एक महत्वपूर्ण घटक है।
एआई व्याख्यात्मकता मानक एआई प्रक्रियाओं से भिन्न है क्योंकि यह लोगों को यह समझने का एक तरीका प्रदान करता है कि मशीन लर्निंग एल्गोरिदम आउटपुट कैसे बनाते हैं। व्याख्यात्मक एआई एक ऐसी प्रणाली है जो लोगों को संभावित परिणाम और कमियों के साथ प्रदान कर सकती है। यह एक मशीन लर्निंग प्रणाली है जो न्याय, जवाबदेही और गोपनीयता के प्रति सम्मान जैसी मानवीय इच्छा को पूरा कर सकती है। व्याख्यात्मक एआई उपभोक्ताओं के साथ विश्वास बनाने के लिए व्यवसायों के लिए आवश्यक है।
जबकि एआई विस्तार कर रहा है, एआई प्रदाताओं को यह समझने की आवश्यकता है कि ब्लैक बॉक्स नहीं कर सकता। ब्लैक बॉक्स मॉडल सीधे डेटा से बनाए जाते हैं और अक्सर यहां तक कि एल्गोरिदम बनाने वाले डेवलपर भी यह नहीं बता सकते कि मशीन की सीखने की आदतें क्या चला रही थीं। लेकिन जागरूक उपभोक्ता किसी ऐसी चीज़ से जुड़ना नहीं चाहता जो इतनी अपारदर्शी है कि उसे जवाबदेह नहीं ठहराया जा सकता। लोग यह जानना चाहते हैं कि एआई एल्गोरिदम एक विशिष्ट परिणाम पर कैसे पहुंचता है, सोर्स्ड इनपुट और नियंत्रित आउटपुट के रहस्य के बिना, खासकर जब एआई की गलत गणनाएं अक्सर मशीन के पूर्वाग्रह के कारण होती हैं। जैसे ही एआई अधिक उन्नत होता जा रहा है, लोग मशीन लर्निंग प्रक्रिया तक पहुंच चाहते हैं ताकि वे समझ सकें कि एल्गोरिदम ने एक विशिष्ट परिणाम कैसे प्राप्त किया। प्रत्येक उद्योग के नेताओं को यह समझने की आवश्यकता है कि जल्द या बाद में, लोग यह पहुंच नहीं चाहेंगे बल्कि पारदर्शिता के एक आवश्यक स्तर के रूप में इसकी मांग करेंगे।
एएसआर सिस्टम जैसे वॉइस-एनेबल्ड असिस्टेंट, ट्रांसक्रिप्शन तकनीक और अन्य सेवाएं जो मानव भाषण को पाठ में परिवर्तित करती हैं, विशेष रूप से पूर्वाग्रह से ग्रस्त हैं। जब सेवा का उपयोग सुरक्षा उपायों के लिए किया जाता है, तो लहजे, एक व्यक्ति की उम्र या पृष्ठभूमि के कारण होने वाली गलतियां गंभीर गलतियां हो सकती हैं, इसलिए समस्या को गंभीरता से लेने की आवश्यकता है। एएसआर का उपयोग पुलिस बॉडी कैमरों में प्रभावी ढंग से किया जा सकता है, उदाहरण के लिए, स्वचालित रूप से रिकॉर्ड और ट्रांसक्रिप्ट बातचीत – एक रिकॉर्ड बनाए रखने के लिए जो सटीक रूप से ट्रांसक्राइब किया गया है, तो जीवन बचा सकता है। व्याख्यात्मकता की प्रथा की आवश्यकता होगी कि एआई केवल खरीदे गए डेटासेट पर निर्भर न करे, बल्कि यह समझने की कोशिश करे कि आगामी ऑडियो की विशेषताएं क्या हो सकती हैं जो त्रुटियों का योगदान कर सकती हैं यदि कोई मौजूद हैं। ध्वनि प्रोफ़ाइल क्या है? पृष्ठभूमि में शोर तो नहीं है? वक्ता एक गैर-अंग्रेजी पहले देश से है या एक पीढ़ी से है जो एआई ने अभी तक नहीं सीखा है? मशीन लर्निंग को तेजी से सीखने में सक्रिय होने की आवश्यकता है और यह उन परिवर्तनशीलताओं को संबोधित करने वाले डेटा को इकट्ठा करके शुरू कर सकती है जो त्रुटियों का कारण बन सकती हैं।
आवश्यकता स्पष्ट होती जा रही है, लेकिन इस पद्धति को लागू करने का मार्ग हमेशा एक आसान समाधान नहीं होगा। समस्या का पारंपरिक उत्तर अधिक डेटा जोड़ना है, लेकिन एक अधिक परिष्कृत समाधान आवश्यक होगा, विशेष रूप से जब कंपनियों द्वारा उपयोग किए जाने वाले खरीदे गए डेटासेट अंतर्निहित रूप से पूर्वाग्रह से ग्रस्त होते हैं। यह इसलिए है क्योंकि ऐतिहासिक रूप से, एक विशिष्ट निर्णय की व्याख्या करना मुश्किल था जो एआई द्वारा दिया गया था और यह एंड-टू-एंड मॉडल की जटिलता की प्रकृति के कारण है। हालांकि, हम अब कर सकते हैं, और हम लोगों ने एआई पर भरोसा क्यों खो दिया यह पूछकर शुरू कर सकते हैं।
अनिवार्य रूप से, एआई गलतियां करेगा। कंपनियों को ऐसे मॉडल बनाने की आवश्यकता है जो संभावित कमियों के प्रति जागरूक हों, जहां और जब मुद्दे हो रहे हैं उनकी पहचान करें, और मजबूत एआई मॉडल बनाने के लिए निरंतर समाधान बनाएं:
- जब कुछ गलत हो जाता है, तो डेवलपर्स को यह समझाने की आवश्यकता होगी कि क्या हुआ और सुधार की योजना विकसित करें ताकि भविष्य में समान गलतियों को कम किया जा सके।
- मशीन को वास्तव में यह जानने के लिए कि यह सही या गलत था, वैज्ञानिकों को एक फीडबैक लूप बनाने की आवश्यकता है ताकि एआई अपनी कमियों को सीख सके और विकसित हो सके।
- एएसआर को विश्वास बनाने का एक और तरीका है कि जब एआई अभी भी सुधार कर रहा है तो एक प्रणाली बनाई जाए जो विश्वास स्कोर प्रदान कर सके, और यह बताने का कारण कि एआई कम विश्वास क्यों है। उदाहरण के लिए, कंपनियां आमतौर पर अपने स्वयं के एआई की कमियों को प्रतिबिंबित करने और अपने ग्राहकों के साथ पारदर्शिता स्थापित करने के लिए शून्य से 100 तक स्कोर उत्पन्न करती हैं। भविष्य में, सिस्टम ऑडियो के बारे में अधिक मेटाडेटा प्रदान करके कि ऑडियो क्यों चुनौतीपूर्ण था, जैसे कि ध्वनि स्तर की धारणा या एक कम समझा जाने वाला लहजा, गलतियों के कारणों के लिए पोस्ट-हॉक व्याख्या प्रदान कर सकते हैं।
अतिरिक्त पारदर्शिता एआई प्रशिक्षण और प्रदर्शन की मानव निगरानी में सुधार करेगी। जितना अधिक हम सुधार की आवश्यकता के बारे में खुले रहते हैं, उतना ही हम उन सुधारों पर कार्रवाई करने के लिए जवाबदेह होते हैं। उदाहरण के लिए, एक शोधकर्ता यह जानना चाह सकता है कि गलत पाठ क्यों आउटपुट हुआ ताकि वे समस्या को कम कर सकें, जबकि एक ट्रांसक्रिप्शनिस्ट यह जानना चाह सकता है कि एएसआर ने इनपुट क्यों गलत व्याख्या की ताकि वे इसकी वैधता का आकलन करने में मदद कर सकें। मानवों को लूप में रखने से एआई के बिना जांच के सबसे स्पष्ट समस्याओं को कम किया जा सकता है। यह एआई को अपनी गलतियों को पकड़ने, सुधारने और अंततः वास्तविक समय में स्वयं को सही करने में लगने वाले समय को तेज कर सकता है।
एआई लोगों के जीवन में सुधार कर सकता है, लेकिन केवल तभी जब मनुष्य इसे ठीक से बनाते हैं। हमें न केवल इन प्रणालियों को जवाबदेह ठहराने की आवश्यकता है, बल्कि नवाचार के पीछे लोगों को भी जवाबदेह ठहराने की आवश्यकता है। भविष्य की एआई प्रणालियों को लोगों द्वारा निर्धारित सिद्धांतों का पालन करने की अपेक्षा की जाती है, और केवल तभी हमें एक ऐसी प्रणाली मिलेगी जिस पर लोग भरोसा करेंगे। यह समय है कि हम आधारभूत कार्य रखें और अब उन सिद्धांतों के लिए प्रयास करें जब यह अंततः अभी भी स्वयं सेवा कर रहे हैं।












