Connect with us

рд╡реНрдпрд╛рдЦреНрдпрд╛рддреНрдордХрддрд╛ рд╣рд░ рдЙрджреНрдпреЛрдЧ рдХреА рдПрдЖрдИ рд╕рдорд╕реНрдпрд╛ рдХрд╛ рд╕рдорд╛рдзрд╛рди рдХрд░ рд╕рдХрддреА рд╣реИ: рдкрд╛рд░рджрд░реНрд╢рд┐рддрд╛ рдХреА рдХрдореА

рд╡рд┐рдЪрд╛рд░ рдиреЗрддрд╛

рд╡реНрдпрд╛рдЦреНрдпрд╛рддреНрдордХрддрд╛ рд╣рд░ рдЙрджреНрдпреЛрдЧ рдХреА рдПрдЖрдИ рд╕рдорд╕реНрдпрд╛ рдХрд╛ рд╕рдорд╛рдзрд╛рди рдХрд░ рд╕рдХрддреА рд╣реИ: рдкрд╛рд░рджрд░реНрд╢рд┐рддрд╛ рдХреА рдХрдореА

mm

द्वारा:मिगुएल जेटे, वीपी ऑफ आरएंडडी स्पीच, रेव

इसके प्रारंभिक चरणों में, एआई शायद नई चीजों पर भरोसा कर सकता था। यह मशीन लर्निंग के लिए धीरे-धीरे सीखना और एक अपारदर्शी प्रक्रिया बनाए रखना ठीक था जहां एआई की गणना औसत उपभोक्ता के लिए समझना मुश्किल था। यह बदल रहा है। जैसे ही स्वास्थ्य सेवा, वित्त और आपराधिक न्याय प्रणाली जैसे अधिक उद्योग एआई का उपयोग लोगों के जीवन पर वास्तविक प्रभाव डालने के तरीकों से करना शुरू करते हैं, अधिक लोग यह जानना चाहते हैं कि एल्गोरिदम का उपयोग कैसे किया जा रहा है, डेटा कैसे सोर्स किया जा रहा है, और इसकी क्षमताएं कितनी सटीक हैं। यदि कंपनियां अपने बाजारों में नवाचार के अग्रणी रहना चाहती हैं, तो उन्हें ऐसे एआई पर भरोसा करने की आवश्यकता है जिस पर उनके दर्शक भरोसा करें। एआई व्याख्यात्मकता उस संबंध को गहरा करने के लिए एक महत्वपूर्ण घटक है।

एआई व्याख्यात्मकता मानक एआई प्रक्रियाओं से भिन्न है क्योंकि यह लोगों को यह समझने का एक तरीका प्रदान करता है कि मशीन लर्निंग एल्गोरिदम आउटपुट कैसे बनाते हैं। व्याख्यात्मक एआई एक ऐसी प्रणाली है जो लोगों को संभावित परिणाम और कमियों के साथ प्रदान कर सकती है। यह एक मशीन लर्निंग प्रणाली है जो न्याय, जवाबदेही और गोपनीयता के प्रति सम्मान जैसी मानवीय इच्छा को पूरा कर सकती है। व्याख्यात्मक एआई उपभोक्ताओं के साथ विश्वास बनाने के लिए व्यवसायों के लिए आवश्यक है।

जबकि एआई विस्तार कर रहा है, एआई प्रदाताओं को यह समझने की आवश्यकता है कि ब्लैक बॉक्स नहीं कर सकता। ब्लैक बॉक्स मॉडल सीधे डेटा से बनाए जाते हैं और अक्सर यहां तक कि एल्गोरिदम बनाने वाले डेवलपर भी यह नहीं बता सकते कि मशीन की सीखने की आदतें क्या चला रही थीं। लेकिन जागरूक उपभोक्ता किसी ऐसी चीज़ से जुड़ना नहीं चाहता जो इतनी अपारदर्शी है कि उसे जवाबदेह नहीं ठहराया जा सकता। लोग यह जानना चाहते हैं कि एआई एल्गोरिदम एक विशिष्ट परिणाम पर कैसे पहुंचता है, सोर्स्ड इनपुट और नियंत्रित आउटपुट के रहस्य के बिना, खासकर जब एआई की गलत गणनाएं अक्सर मशीन के पूर्वाग्रह के कारण होती हैं। जैसे ही एआई अधिक उन्नत होता जा रहा है, लोग मशीन लर्निंग प्रक्रिया तक पहुंच चाहते हैं ताकि वे समझ सकें कि एल्गोरिदम ने एक विशिष्ट परिणाम कैसे प्राप्त किया। प्रत्येक उद्योग के नेताओं को यह समझने की आवश्यकता है कि जल्द या बाद में, लोग यह पहुंच नहीं चाहेंगे बल्कि पारदर्शिता के एक आवश्यक स्तर के रूप में इसकी मांग करेंगे।

एएसआर सिस्टम जैसे वॉइस-एनेबल्ड असिस्टेंट, ट्रांसक्रिप्शन तकनीक और अन्य सेवाएं जो मानव भाषण को पाठ में परिवर्तित करती हैं, विशेष रूप से पूर्वाग्रह से ग्रस्त हैं। जब सेवा का उपयोग सुरक्षा उपायों के लिए किया जाता है, तो लहजे, एक व्यक्ति की उम्र या पृष्ठभूमि के कारण होने वाली गलतियां गंभीर गलतियां हो सकती हैं, इसलिए समस्या को गंभीरता से लेने की आवश्यकता है। एएसआर का उपयोग पुलिस बॉडी कैमरों में प्रभावी ढंग से किया जा सकता है, उदाहरण के लिए, स्वचालित रूप से रिकॉर्ड और ट्रांसक्रिप्ट बातचीत – एक रिकॉर्ड बनाए रखने के लिए जो सटीक रूप से ट्रांसक्राइब किया गया है, तो जीवन बचा सकता है। व्याख्यात्मकता की प्रथा की आवश्यकता होगी कि एआई केवल खरीदे गए डेटासेट पर निर्भर न करे, बल्कि यह समझने की कोशिश करे कि आगामी ऑडियो की विशेषताएं क्या हो सकती हैं जो त्रुटियों का योगदान कर सकती हैं यदि कोई मौजूद हैं। ध्वनि प्रोफ़ाइल क्या है? पृष्ठभूमि में शोर तो नहीं है? वक्ता एक गैर-अंग्रेजी पहले देश से है या एक पीढ़ी से है जो एआई ने अभी तक नहीं सीखा है? मशीन लर्निंग को तेजी से सीखने में सक्रिय होने की आवश्यकता है और यह उन परिवर्तनशीलताओं को संबोधित करने वाले डेटा को इकट्ठा करके शुरू कर सकती है जो त्रुटियों का कारण बन सकती हैं।

आवश्यकता स्पष्ट होती जा रही है, लेकिन इस पद्धति को लागू करने का मार्ग हमेशा एक आसान समाधान नहीं होगा। समस्या का पारंपरिक उत्तर अधिक डेटा जोड़ना है, लेकिन एक अधिक परिष्कृत समाधान आवश्यक होगा, विशेष रूप से जब कंपनियों द्वारा उपयोग किए जाने वाले खरीदे गए डेटासेट अंतर्निहित रूप से पूर्वाग्रह से ग्रस्त होते हैं। यह इसलिए है क्योंकि ऐतिहासिक रूप से, एक विशिष्ट निर्णय की व्याख्या करना मुश्किल था जो एआई द्वारा दिया गया था और यह एंड-टू-एंड मॉडल की जटिलता की प्रकृति के कारण है। हालांकि, हम अब कर सकते हैं, और हम लोगों ने एआई पर भरोसा क्यों खो दिया यह पूछकर शुरू कर सकते हैं।

अनिवार्य रूप से, एआई गलतियां करेगा। कंपनियों को ऐसे मॉडल बनाने की आवश्यकता है जो संभावित कमियों के प्रति जागरूक हों, जहां और जब मुद्दे हो रहे हैं उनकी पहचान करें, और मजबूत एआई मॉडल बनाने के लिए निरंतर समाधान बनाएं:

  1. जब कुछ गलत हो जाता है, तो डेवलपर्स को यह समझाने की आवश्यकता होगी कि क्या हुआ और सुधार की योजना विकसित करें ताकि भविष्य में समान गलतियों को कम किया जा सके।
  2. मशीन को वास्तव में यह जानने के लिए कि यह सही या गलत था, वैज्ञानिकों को एक फीडबैक लूप बनाने की आवश्यकता है ताकि एआई अपनी कमियों को सीख सके और विकसित हो सके।
  3. एएसआर को विश्वास बनाने का एक और तरीका है कि जब एआई अभी भी सुधार कर रहा है तो एक प्रणाली बनाई जाए जो विश्वास स्कोर प्रदान कर सके, और यह बताने का कारण कि एआई कम विश्वास क्यों है। उदाहरण के लिए, कंपनियां आमतौर पर अपने स्वयं के एआई की कमियों को प्रतिबिंबित करने और अपने ग्राहकों के साथ पारदर्शिता स्थापित करने के लिए शून्य से 100 तक स्कोर उत्पन्न करती हैं। भविष्य में, सिस्टम ऑडियो के बारे में अधिक मेटाडेटा प्रदान करके कि ऑडियो क्यों चुनौतीपूर्ण था, जैसे कि ध्वनि स्तर की धारणा या एक कम समझा जाने वाला लहजा, गलतियों के कारणों के लिए पोस्ट-हॉक व्याख्या प्रदान कर सकते हैं।

अतिरिक्त पारदर्शिता एआई प्रशिक्षण और प्रदर्शन की मानव निगरानी में सुधार करेगी। जितना अधिक हम सुधार की आवश्यकता के बारे में खुले रहते हैं, उतना ही हम उन सुधारों पर कार्रवाई करने के लिए जवाबदेह होते हैं। उदाहरण के लिए, एक शोधकर्ता यह जानना चाह सकता है कि गलत पाठ क्यों आउटपुट हुआ ताकि वे समस्या को कम कर सकें, जबकि एक ट्रांसक्रिप्शनिस्ट यह जानना चाह सकता है कि एएसआर ने इनपुट क्यों गलत व्याख्या की ताकि वे इसकी वैधता का आकलन करने में मदद कर सकें। मानवों को लूप में रखने से एआई के बिना जांच के सबसे स्पष्ट समस्याओं को कम किया जा सकता है। यह एआई को अपनी गलतियों को पकड़ने, सुधारने और अंततः वास्तविक समय में स्वयं को सही करने में लगने वाले समय को तेज कर सकता है।

एआई लोगों के जीवन में सुधार कर सकता है, लेकिन केवल तभी जब मनुष्य इसे ठीक से बनाते हैं। हमें न केवल इन प्रणालियों को जवाबदेह ठहराने की आवश्यकता है, बल्कि नवाचार के पीछे लोगों को भी जवाबदेह ठहराने की आवश्यकता है। भविष्य की एआई प्रणालियों को लोगों द्वारा निर्धारित सिद्धांतों का पालन करने की अपेक्षा की जाती है, और केवल तभी हमें एक ऐसी प्रणाली मिलेगी जिस पर लोग भरोसा करेंगे। यह समय है कि हम आधारभूत कार्य रखें और अब उन सिद्धांतों के लिए प्रयास करें जब यह अंततः अभी भी स्वयं सेवा कर रहे हैं।

рдорд┐рдЧреБрдПрд▓ рдЬреЗрдЯреНрдЯреЗ Rev рдореЗрдВ рдПрдЖрдИ рдЕрдиреБрд╕рдВрдзрд╛рди рдФрд░ рд╡рд┐рдХрд╛рд╕ рдХреЗ рдкреНрд░рдореБрдЦ рд╣реИрдВ, рдПрдХ рднрд╛рд╖рдг-рд╕реЗ-рдкрд╛рда рд▓рд┐рдкреНрдпрдВрддрд░рдг рдордВрдЪ рдЬреЛ рдПрдЖрдИ рдХреЛ рдХреБрд╢рд▓ рдорд╛рдирд╡реЛрдВ рдХреЗ рд╕рд╛рде рдЬреЛрдбрд╝рддреА рд╣реИред рд╡рд╣ рджреБрдирд┐рдпрд╛ рдХреЗ рд╕рдмрд╕реЗ рд╕рдЯреАрдХ рднрд╛рд╖рдг-рд╕реЗ-рдкрд╛рда рдПрдЖрдИ рдордВрдЪ рд╡рд┐рдХрд╕рд┐рдд рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдЬрд┐рдореНрдореЗрджрд╛рд░ рдЯреАрдо рдХрд╛ рдиреЗрддреГрддреНрд╡ рдХрд░рддреЗ рд╣реИрдВред рдЬрдЯрд┐рд▓ рд╕рдорд╕реНрдпрд╛рдУрдВ рдХрд╛ рд╕рдорд╛рдзрд╛рди рдХрд░рддреЗ рд╣реБрдП рдЬреАрд╡рди рдореЗрдВ рд╕реБрдзрд╛рд░ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдЙрддреНрд╕рд╛рд╣рд┐рдд, рд╡рд╣ рдкреНрд░реМрджреНрдпреЛрдЧрд┐рдХреА рдХреЗ рдорд╛рдзреНрдпрдо рд╕реЗ рд╕рдорд╛рд╡реЗрд╢ рдФрд░ рд╕рдорд╛рдирддрд╛ рдХреЛ рдмрдврд╝рд╛рдиреЗ рдХреЗ рд▓рд┐рдП рд╕рдорд░реНрдкрд┐рдд рд╣реИред рджреЛ рджрд╢рдХреЛрдВ рд╕реЗ рдЕрдзрд┐рдХ рд╕рдордп рд╕реЗ, рдЙрдиреНрд╣реЛрдВрдиреЗ рдиреНрдпреВрдЕрдВрд╕ рдХрдореНрдпреБрдирд┐рдХреЗрд╢рдВрд╕ рдФрд░ рд╡реЙрдпрд╕рдмреЙрдХреНрд╕ рдЬреИрд╕реА рдХрдВрдкрдирд┐рдпреЛрдВ рдХреЗ рд╕рд╛рде рд╡реЙрдпрд╕ рдкреНрд░реМрджреНрдпреЛрдЧрд┐рдХрд┐рдпреЛрдВ рдХреЛ рд▓рд╛рдЧреВ рдХрд░рдиреЗ рдХрд╛ рдХрд╛рдо рдХрд┐рдпрд╛ рд╣реИред рдЙрдиреНрд╣реЛрдВрдиреЗ рдореЙрдиреНрдЯреНрд░рд┐рдпрд▓ рдореЗрдВ рдореИрдХрдЧрд┐рд▓ рд╡рд┐рд╢реНрд╡рд╡рд┐рджреНрдпрд╛рд▓рдп рд╕реЗ рдЧрдгрд┐рдд рдФрд░ рд╕рд╛рдВрдЦреНрдпрд┐рдХреА рдореЗрдВ рдорд╛рд╕реНрдЯрд░ рдХреА рдбрд┐рдЧреНрд░реА рдкреНрд░рд╛рдкреНрдд рдХреАред рдПрдЖрдИ рдХреЗ рдорд╛рдзреНрдпрдо рд╕реЗ рд╕рдВрдЪрд╛рд░ рдХреЛ рдЖрдЧреЗ рдмрдврд╝рд╛рдиреЗ рдХреЗ рдЕрд▓рд╛рд╡рд╛, рд╡рд╣ рд░реЙрдХ рдХреНрд▓рд╛рдЗрдореНрдмрд┐рдВрдЧ рдкреНрд░рддрд┐рдпреЛрдЧрд┐рддрд╛рдУрдВ рдХреЗ рд▓рд┐рдП рдПрдХ рдлреЛрдЯреЛрдЧреНрд░рд╛рдлрд░ рдХреЗ рд░реВрдк рдореЗрдВ рдЕрдкрдирд╛ рд╕рдордп рдмрд┐рддрд╛рддреЗ рд╣реИрдВред