ठूंठ व्याख्यात्मकता हर उद्योग की एआई समस्या का समाधान कर सकती है: पारदर्शिता की कमी - यूनाइट.एआई
हमसे जुडे

विचारक नेता

व्याख्यात्मकता हर उद्योग की एआई समस्या का समाधान कर सकती है: पारदर्शिता की कमी

mm

प्रकाशित

 on

द्वारा: मिगुएल जेट्टे, अनुसंधान एवं विकास भाषण के उपाध्यक्ष, फिरना.

अपने शुरुआती चरण में, एआई नवीनता की उपलब्धियों पर टिकने में सक्षम हो सकता है। मशीन लर्निंग के लिए धीरे-धीरे सीखना और एक अपारदर्शी प्रक्रिया बनाए रखना ठीक था जहां औसत उपभोक्ता के लिए एआई की गणना को भेदना असंभव है। वह बदल रहा है. जैसे-जैसे स्वास्थ्य सेवा, वित्त और आपराधिक न्याय प्रणाली जैसे अधिक उद्योग एआई का उन तरीकों से लाभ उठाना शुरू करते हैं जो लोगों के जीवन पर वास्तविक प्रभाव डाल सकते हैं, अधिक लोग जानना चाहते हैं कि एल्गोरिदम का उपयोग कैसे किया जा रहा है, डेटा कैसे प्राप्त किया जा रहा है, और बस इसकी क्षमताएं कितनी सटीक हैं. यदि कंपनियां अपने बाजारों में नवाचार के मामले में सबसे आगे रहना चाहती हैं, तो उन्हें एआई पर भरोसा करने की जरूरत है जिस पर उनके दर्शक भरोसा करेंगे। उस रिश्ते को गहरा करने के लिए एआई व्याख्यात्मकता प्रमुख घटक है।

एआई की व्याख्या मानक एआई प्रक्रियाओं से भिन्न है क्योंकि यह लोगों को यह समझने का एक तरीका प्रदान करती है कि मशीन लर्निंग एल्गोरिदम आउटपुट कैसे बनाते हैं। व्याख्या योग्य एआई एक ऐसी प्रणाली है जो लोगों को संभावित परिणाम प्रदान कर सकती है और कमियाँ. यह एक मशीन लर्निंग सिस्टम है जो निष्पक्षता, जवाबदेही और गोपनीयता के सम्मान की मानवीय इच्छा को पूरा कर सकता है। उपभोक्ताओं के साथ विश्वास कायम करने के लिए व्यवसायों के लिए व्याख्या योग्य एआई अनिवार्य है।

जबकि एआई का विस्तार हो रहा है, एआई प्रदाताओं को यह समझने की जरूरत है कि ब्लैक बॉक्स ऐसा नहीं कर सकता। ब्लैक बॉक्स मॉडल सीधे डेटा से बनाए जाते हैं और कई बार एल्गोरिदम बनाने वाला डेवलपर भी यह पहचान नहीं पाता है कि मशीन की सीखी गई आदतों के पीछे क्या कारण है। लेकिन कर्तव्यनिष्ठ उपभोक्ता ऐसी किसी चीज़ से जुड़ना नहीं चाहता जो इतनी अभेद्य हो कि उसे जवाबदेह न ठहराया जा सके। लोग जानना चाहते हैं कि स्रोत इनपुट और नियंत्रित आउटपुट के रहस्य के बिना एआई एल्गोरिदम एक विशिष्ट परिणाम पर कैसे पहुंचता है, खासकर जब एआई की गलत गणना अक्सर मशीन पूर्वाग्रहों के कारण होती है। जैसे-जैसे एआई अधिक उन्नत होता जा रहा है, लोग यह समझने के लिए मशीन सीखने की प्रक्रिया तक पहुंच चाहते हैं कि एल्गोरिदम अपने विशिष्ट परिणाम पर कैसे पहुंचा। प्रत्येक उद्योग के नेताओं को यह समझना चाहिए कि देर-सबेर लोग इस पहुंच को पसंद नहीं करेंगे बल्कि पारदर्शिता के आवश्यक स्तर के रूप में इसकी मांग करेंगे।

एएसआर सिस्टम जैसे आवाज-सक्षम सहायक, ट्रांसक्रिप्शन तकनीक और अन्य सेवाएं जो मानव भाषण को पाठ में परिवर्तित करती हैं, विशेष रूप से हैं पूर्वाग्रहों से ग्रस्त. जब सेवा का उपयोग सुरक्षा उपायों के लिए किया जाता है, तो उच्चारण, किसी व्यक्ति की उम्र या पृष्ठभूमि के कारण गलतियाँ गंभीर गलतियाँ हो सकती हैं, इसलिए समस्या को गंभीरता से लेना होगा। एएसआर का उपयोग पुलिस बॉडी कैम में प्रभावी ढंग से किया जा सकता है, उदाहरण के लिए, बातचीत को स्वचालित रूप से रिकॉर्ड करने और ट्रांसक्रिप्ट करने के लिए - एक रिकॉर्ड रखना, जिसे यदि सटीक रूप से ट्रांसक्रिप्ट किया जाए, तो जान बचाई जा सकती है। व्याख्यात्मकता के अभ्यास के लिए आवश्यक होगा कि एआई केवल खरीदे गए डेटासेट पर निर्भर न रहे, बल्कि आने वाले ऑडियो की विशेषताओं को समझने की कोशिश करे जो त्रुटियों में योगदान दे सकती है यदि कोई मौजूद है। ध्वनिक प्रोफ़ाइल क्या है? क्या पृष्ठभूमि में शोर है? क्या वक्ता गैर-अंग्रेजी-प्रथम देश से है या उस पीढ़ी से है जो ऐसी शब्दावली का उपयोग करता है जिसे AI ने अभी तक नहीं सीखा है? मशीन लर्निंग को तेजी से सीखने के लिए सक्रिय होने की आवश्यकता है और यह डेटा एकत्र करके शुरू हो सकता है जो इन चर को संबोधित कर सकता है।

आवश्यकता स्पष्ट होती जा रही है, लेकिन इस पद्धति को लागू करने का मार्ग हमेशा आसान समाधान नहीं होगा। समस्या का पारंपरिक उत्तर अधिक डेटा जोड़ना है, लेकिन अधिक परिष्कृत समाधान आवश्यक होगा, खासकर जब कई कंपनियों द्वारा उपयोग किए जाने वाले खरीदे गए डेटासेट स्वाभाविक रूप से पक्षपातपूर्ण हों। ऐसा इसलिए है क्योंकि ऐतिहासिक रूप से, एआई द्वारा दिए गए किसी विशेष निर्णय की व्याख्या करना मुश्किल रहा है और यह एंड-टू-एंड मॉडल की जटिलता की प्रकृति के कारण है। हालाँकि, अब हम कर सकते हैं, और हम यह पूछकर शुरुआत कर सकते हैं कि लोगों ने एआई पर भरोसा कैसे खो दिया।

अनिवार्य रूप से, AI गलतियाँ करेगा। कंपनियों को ऐसे मॉडल बनाने की ज़रूरत है जो संभावित कमियों से अवगत हों, पहचानें कि समस्याएँ कब और कहाँ हो रही हैं, और मजबूत एआई मॉडल बनाने के लिए चल रहे समाधान तैयार करें:

  1. जब कुछ गलत होता है, तो डेवलपर्स को यह बताना होगा कि क्या हुआ और क्या हुआ एक तत्काल योजना विकसित करें भविष्य में इसी तरह की गलतियों को कम करने के लिए मॉडल में सुधार करना।
  2. मशीन को वास्तव में यह जानने के लिए कि यह सही था या गलत, वैज्ञानिकों को इसकी आवश्यकता है एक फीडबैक लूप बनाएं ताकि AI अपनी कमियों को सीख सके और विकसित हो सके।
  3. एएसआर के लिए भरोसा कायम करने का दूसरा तरीका यह है कि एआई में अभी भी सुधार हो रहा है एक ऐसी प्रणाली बनाएं जो आत्मविश्वास स्कोर प्रदान कर सके, और कारण बताएं कि एआई कम आश्वस्त क्यों है। उदाहरण के लिए, कंपनियां आमतौर पर अपने स्वयं के एआई की खामियों को प्रतिबिंबित करने और अपने ग्राहकों के साथ पारदर्शिता स्थापित करने के लिए शून्य से 100 तक स्कोर उत्पन्न करती हैं। भविष्य में, सिस्टम ऑडियो के बारे में अधिक मेटाडेटा, जैसे कथित शोर स्तर या कम समझे जाने वाले उच्चारण की पेशकश करके पोस्ट-हॉक स्पष्टीकरण प्रदान कर सकता है कि ऑडियो चुनौतीपूर्ण क्यों था।

अतिरिक्त पारदर्शिता के परिणामस्वरूप एआई प्रशिक्षण और प्रदर्शन की बेहतर मानवीय निगरानी होगी। जितना अधिक हम इस बारे में खुले हैं कि हमें कहाँ सुधार करने की आवश्यकता है, हम उन सुधारों पर कार्रवाई करने के लिए उतने ही अधिक जवाबदेह हैं। उदाहरण के लिए, एक शोधकर्ता यह जानना चाह सकता है कि गलत पाठ आउटपुट क्यों किया गया ताकि वे समस्या को कम कर सकें, जबकि एक ट्रांसक्रिप्शनिस्ट इस बात का सबूत चाह सकता है कि एएसआर ने इसकी वैधता के आकलन में मदद करने के लिए इनपुट की गलत व्याख्या क्यों की। मनुष्यों को लूप में रखने से कुछ सबसे स्पष्ट समस्याएं कम हो सकती हैं जो एआई के अनियंत्रित होने पर उत्पन्न होती हैं। यह एआई को अपनी त्रुटियों को पकड़ने, सुधार करने और अंततः वास्तविक समय में खुद को सही करने के लिए आवश्यक समय को भी तेज कर सकता है।

एआई में लोगों के जीवन को बेहतर बनाने की क्षमता है, लेकिन केवल तभी जब मनुष्य इसे ठीक से उत्पादन करने के लिए तैयार करें। हमें न केवल इन प्रणालियों को बल्कि नवाचार के पीछे के लोगों को भी जवाबदेह बनाने की जरूरत है। भविष्य की एआई प्रणालियों से अपेक्षा की जाती है कि वे लोगों द्वारा निर्धारित सिद्धांतों का पालन करें, और केवल तब तक ही हमारे पास एक ऐसी प्रणाली होगी जिस पर लोग भरोसा करेंगे। अब जमीनी कार्य करने और उन सिद्धांतों के लिए प्रयास करने का समय आ गया है, जबकि अंततः अभी भी मनुष्य स्वयं अपनी सेवा कर रहे हैं।

मिगुएल जेट्टे एआई आर एंड डी के प्रमुख हैं फिरना, कुशल मनुष्यों के साथ एआई को संयोजित करने वाला एक वाक्-से-पाठ प्रतिलेखन मंच। वह दुनिया के सबसे सटीक स्पीच-टू-टेक्स्ट एआई प्लेटफॉर्म को विकसित करने के लिए जिम्मेदार टीम का नेतृत्व करते हैं। जीवन में सुधार करते हुए जटिल समस्याओं को हल करने के प्रति जुनूनी, वह प्रौद्योगिकी के माध्यम से निर्माण समावेशन और समानता को बढ़ाने के लिए समर्पित हैं। दो दशकों से अधिक समय में उन्होंने नुअंस कम्युनिकेशंस और वॉयसबॉक्स सहित कंपनियों के साथ वॉयस प्रौद्योगिकियों को लागू करने के लिए काम किया है। उन्होंने मॉन्ट्रियल में मैकगिल विश्वविद्यालय से गणित और सांख्यिकी में स्नातकोत्तर उपाधि प्राप्त की। जब वह एआई के माध्यम से संचार को आगे नहीं बढ़ा रहा होता है तो वह रॉक क्लाइंबिंग प्रतियोगिताओं के लिए एक फोटोग्राफर के रूप में अपना समय बिताता है।