Connect with us

рдпрд╛рд░реЛрди рд╕рд┐рдВрдЧрд░, рд░реЛрдмрд╕реНрдЯ рдЗрдВрдЯреЗрд▓рд┐рдЬреЗрдВрд╕ рдХреЗ рд╕реАрдИрдУ рдФрд░ рд╣рд╛рд░реНрд╡рд░реНрдб рд╡рд┐рд╢реНрд╡рд╡рд┐рджреНрдпрд╛рд▓рдп рдореЗрдВ рдХрдВрдкреНрдпреВрдЯрд░ рд╡рд┐рдЬреНрдЮрд╛рди рдХреЗ рдкреНрд░реЛрдлреЗрд╕рд░ – рд╕рд╛рдХреНрд╖рд╛рддреНрдХрд╛рд░ рд╢реНрд░реГрдВрдЦрд▓рд╛

рд╕рд╛рдХреНрд╖рд╛рддреНрдХрд╛рд░

рдпрд╛рд░реЛрди рд╕рд┐рдВрдЧрд░, рд░реЛрдмрд╕реНрдЯ рдЗрдВрдЯреЗрд▓рд┐рдЬреЗрдВрд╕ рдХреЗ рд╕реАрдИрдУ рдФрд░ рд╣рд╛рд░реНрд╡рд░реНрдб рд╡рд┐рд╢реНрд╡рд╡рд┐рджреНрдпрд╛рд▓рдп рдореЗрдВ рдХрдВрдкреНрдпреВрдЯрд░ рд╡рд┐рдЬреНрдЮрд╛рди рдХреЗ рдкреНрд░реЛрдлреЗрд╕рд░ – рд╕рд╛рдХреНрд╖рд╛рддреНрдХрд╛рд░ рд╢реНрд░реГрдВрдЦрд▓рд╛

mm

यारोन सिंगर रोबस्ट इंटेलिजेंस के सीईओ और हार्वर्ड में कंप्यूटर विज्ञान और अनुप्रयुक्त गणित के प्रोफेसर हैं। यारोन मशीन लर्निंग, एल्गोरिदम और अनुकूलन में नए परिणामों के लिए जाने जाते हैं। पहले, यारोन ने गूगल रिसर्च में काम किया और यूसी बर्कले से अपनी पीएचडी प्राप्त की।

आपको कंप्यूटर विज्ञान और मशीन लर्निंग के क्षेत्र में क्या आकर्षित किया?

मेरी यात्रा गणित से शुरू हुई, जिसने मुझे कंप्यूटर विज्ञान की ओर ले जाया, जिसने मुझे मशीन लर्निंग की ओर अग्रसर किया। गणित ने मुझे आकर्षित किया क्योंकि इसकी अक्षमिक प्रणाली ने मुझे नए विश्व बनाने की क्षमता दी। कंप्यूटर विज्ञान के साथ, मैंने अस्तित्ववादी प्रमाणों के बारे में सीखा, लेकिन साथ ही उनके पीछे के एल्गोरिदम के बारे में भी। एक रचनात्मक दृष्टिकोण से, कंप्यूटर विज्ञान यह सीमाओं का निर्धारण है जो हम कर सकते हैं और नहीं कर सकते हैं।

मेरी मशीन लर्निंग में रुचि हमेशा वास्तविक डेटा में निहित रही है, लगभग इसके भौतिक पहलू में। वास्तविक दुनिया से चीजों को लेना और उन्हें अर्थपूर्ण बनाने के लिए मॉडलिंग करना। हम वास्तव में एक बेहतर दुनिया को इंजीनियर कर सकते हैं जो अर्थपूर्ण मॉडलिंग के माध्यम से हो। तो गणित ने मुझे सिद्ध करने के लिए एक आधार दिया, कंप्यूटर विज्ञान मुझे दिखाता है कि हम क्या कर सकते हैं और क्या नहीं कर सकते हैं, और मशीन लर्निंग मुझे इन अवधारणाओं को दुनिया में मॉडल करने में सक्षम बनाती है।

हाल ही में आप हार्वर्ड विश्वविद्यालय में कंप्यूटर विज्ञान और अनुप्रयुक्त गणित के प्रोफेसर थे, इस अनुभव से आपके कुछ मुख्य निष्कर्ष क्या थे?

हार्वर्ड में एक फैकल्टी सदस्य के रूप में मेरा सबसे बड़ा निष्कर्ष यह है कि यह बड़ी चीजों को करने के लिए एक की भूख विकसित करता है। हार्वर्ड में परंपरागत रूप से एक छोटी सी फैकल्टी है, और टेन्योर ट्रैक फैकल्टी से अपेक्षा की जाती है कि वे बड़ी समस्याओं को हल करें और नए क्षेत्र बनाएं। आपको साहसी होना होगा। यह अंततः एक श्रेणी-निर्माण करने वाले स्टार्टअप को लॉन्च करने और एक नए स्थान को परिभाषित करने के लिए महान तैयारी साबित होता है। मैं विशेष रूप से हार्वर्ड के टेन्योर ट्रैक से गुजरने की सिफारिश नहीं करता, लेकिन अगर आप उसे पार कर लेते हैं – तो एक स्टार्टअप बनाना आसान हो जाता है।

क्या आप उस ‘आहा’ क्षण का वर्णन कर सकते हैं जब आप यह महसूस करते हैं कि जटिल एआई प्रणालियां खराब डेटा के प्रति संवेदनशील हैं, जिसके कुछ दूरगामी परिणाम हो सकते हैं?

जब मैं यूसी बर्कले में स्नातक छात्र था, तो मैंने सोशल नेटवर्क में मार्केटिंग के लिए मशीन लर्निंग मॉडल बनाने वाला एक स्टार्टअप करने के लिए कुछ समय लिया। यह 2010 में था। हमारे पास सोशल मीडिया से बड़ी मात्रा में डेटा था, और हमने सभी मॉडलों को स्क्रैच से कोड किया। खुदरा विक्रेताओं के लिए वित्तीय परिणाम काफी महत्वपूर्ण थे, इसलिए हम मॉडल के प्रदर्शन का पालन किया। चूंकि हमने सोशल मीडिया से डेटा का उपयोग किया, इसलिए इनपुट में कई त्रुटियां थीं, साथ ही ड्रिफ्ट भी था। हमने देखा कि छोटी त्रुटियां मॉडल आउटपुट में बड़े परिवर्तन का कारण बन सकती हैं और खुदरा विक्रेताओं के लिए दुर्भाग्यपूर्ण वित्तीय परिणाम हो सकते हैं।

जब मैं गूगल+ (उन लोगों के लिए जो याद रखते हैं) पर काम करने के लिए स्थानांतरित हुआ, तो मैंने ठीक उसी प्रभाव को देखा। अधिक नाटकीय रूप से, एडवर्ड्स जैसी प्रणालियों में, जो विज्ञापनों पर क्लिक करने की संभावना के बारे में भविष्यवाणी करती हैं, हमने देखा कि मॉडल में छोटी त्रुटियां बहुत खराब भविष्यवाणियों का कारण बनती हैं। जब आप गूगल स्केल पर इस समस्या को देखते हैं, तो आपको एहसास होता है कि समस्या सार्वभौमिक है।

इन अनुभवों ने मेरे शोध फोकस को बहुत प्रभावित किया, और मैंने हार्वर्ड में यह जांच करने में समय बिताया कि एआई मॉडल क्यों गलतियां करते हैं और, महत्वपूर्ण रूप से, एल्गोरिदम कैसे डिज़ाइन किए जा सकते हैं जो मॉडल को गलतियां करने से रोक सकते हैं। यह, ज़ाहिर है, और ‘आहा’ क्षणों और, अंततः, रोबस्ट इंटेलिजेंस के निर्माण की ओर ले जाता है।

क्या आप रोबस्ट इंटेलिजेंस की उत्पत्ति की कहानी साझा कर सकते हैं?

रोबस्ट इंटेलिजेंस शोध के साथ शुरू हुआ जो पहले एक सैद्धांतिक समस्या था: एआई मॉडल के निर्णयों के लिए हम क्या गारंटी दे सकते हैं। कोजिन हार्वर्ड में एक छात्र था, और हमने साथ में काम किया, शुरू में शोध पत्र लिखना। तो यह शोध पत्रों के साथ शुरू होता है जो सैद्धांतिक रूप से संभव और असंभव क्या है, इसका रूपरेखा करते हैं। ये परिणाम बाद में एल्गोरिदम और मॉडल को डिज़ाइन करने के लिए एक कार्यक्रम में चले गए जो एआई विफलताओं के लिए मजबूत हैं। हमने फिर से ऐसी प्रणालियां बनाईं जो इन एल्गोरिदम को व्यावहारिक रूप से चला सकती हैं। उसके बाद, एक कंपनी शुरू करना जहां संगठन ऐसी प्रणाली का उपयोग कर सकते हैं, यह एक प्राकृतिक अगला कदम था।

रोबस्ट इंटेलिजेंस द्वारा संबोधित किए जाने वाले कई मुद्दे मौन त्रुटियां हैं, वे क्या हैं और वे इतने खतरनाक क्यों हैं?

मौन त्रुटियों की एक तकनीकी परिभाषा देने से पहले, यह समझने के लिए एक कदम पीछे लेना उचित है कि हम पहले स्थान पर एआई त्रुटियों की परवाह क्यों करते हैं। हम एआई मॉडल त्रुटियों की परवाह करते हैं क्योंकि इन त्रुटियों के परिणाम हैं। हमारी दुनिया महत्वपूर्ण निर्णयों को स्वचालित करने के लिए एआई का उपयोग कर रही है: कौन एक व्यवसाय ऋण प्राप्त करता है और किस दर पर, कौन स्वास्थ्य बीमा कवरेज प्राप्त करता है और किस दर पर, कौन से पड़ोस पुलिस को गश्त करना चाहिए, कौन एक नौकरी के लिए शीर्ष उम्मीदवार होने की सबसे अधिक संभावना है, हवाई अड्डे की सुरक्षा कैसे व्यवस्थित की जानी चाहिए, और इसी तरह। एआई मॉडल बहुत त्रुटि-प्रवण होने का तथ्य यह जोखिम का एक बड़ा सौदा है जो हम स्वचालित निर्णय लेने में विरासत में मिलता है। रोबस्ट इंटेलिजेंस में हम इसे “एआई जोखिम” कहते हैं और कंपनी में हमारा मिशन एआई जोखिम को समाप्त करना है।

मौन त्रुटियां एआई मॉडल त्रुटियां हैं जहां एआई मॉडल इनपुट प्राप्त करता है और एक भविष्यवाणी या निर्णय का उत्पादन करता है जो गलत या पूर्वाग्रहपूर्ण है। तो सतह पर, प्रणाली के लिए सब कुछ कार्यात्मक दृष्टिकोण से ठीक लगता है, क्योंकि एआई मॉडल वही कर रहा है जो यह करने के लिए है। लेकिन भविष्यवाणी या निर्णय गलत है। ये त्रुटियां मौन हैं क्योंकि प्रणाली को पता नहीं है कि एक त्रुटि है। यह एक ऐसे मामले से बहुत खराब हो सकता है जहां एक एआई मॉडल आउटपुट का उत्पादन नहीं कर रहा है, क्योंकि यह संगठनों को एहसास होने में लंबा समय लग सकता है कि उनकी एआई प्रणाली दोषपूर्ण है। फिर, एआई जोखिम एआई विफलताओं में बदल जाता है जिसके गंभीर परिणाम हो सकते हैं।

रोबस्ट इंटेलिजेंस ने मूल रूप से एक एआई फायरवॉल डिज़ाइन किया है, जो पहले असंभव माना जाता था। यह एक तकनीकी चुनौती क्यों है?

एक कारण एआई फायरवॉल एक चुनौती है क्योंकि यह एमएल समुदाय के प्रतिमान के खिलाफ जाता है। एमएल समुदाय का पिछला प्रतिमान यह था कि त्रुटियों को समाप्त करने के लिए, आपको मॉडल में अधिक डेटा खिलाना होगा, जिसमें खराब डेटा भी शामिल है। ऐसा करने से मॉडल स्वयं सीखेंगे और स्वयं त्रुटियों को सुधारेंगे। इस दृष्टिकोण के साथ समस्या यह है कि यह मॉडल की सटीकता को नाटकीय रूप से कम कर देता है। छवियों के लिए सबसे अच्छे परिणाम, उदाहरण के लिए, एआई मॉडल की सटीकता को 98.5% से लगभग 37% तक कम कर देते हैं।

एआई फायरवॉल एक अलग समाधान प्रदान करता है। हम त्रुटि की पहचान करने की समस्या को भविष्यवाणी बनाने की भूमिका से अलग करते हैं, जिसका अर्थ है कि फायरवॉल एक विशिष्ट कार्य पर ध्यान केंद्रित कर सकता है: निर्धारित करना कि क्या एक डेटापॉइंट एक त्रुटिपूर्ण भविष्यवाणी का उत्पादन करेगा।

यह स्वयं एक चुनौती थी क्योंकि एकल डेटा बिंदु पर एक भविष्यवाणी देना मुश्किल है। मॉडल त्रुटियां करने के कई कारण हैं, इसलिए एक प्रौद्योगिकी बनाना जो इन त्रुटियों की भविष्यवाणी कर सकती है, आसान काम नहीं था। हमें जो इंजीनियर मिले हैं उन्हें हम बहुत भाग्यशाली मानते हैं।

प्रणाली एआई पूर्वाग्रह को रोकने में कैसे मदद कर सकती है?

मॉडल पूर्वाग्रह डेटा के बीच एक विसंगति से आता है जिस पर मॉडल प्रशिक्षित किया गया था और जिस डेटा का उपयोग यह भविष्यवाणी करने के लिए करता है। एआई जोखिम पर वापस जाना, पूर्वाग्रह एक मुख्य मुद्दा है जो मौन त्रुटियों से जुड़ा है। उदाहरण के लिए, यह अक्सर कम प्रतिनिधित्व वाले जनसंख्या के साथ एक समस्या है। एक मॉडल में पूर्वाग्रह हो सकता है क्योंकि इसने उस जनसंख्या से कम डेटा देखा है, जो मॉडल के प्रदर्शन और इसकी भविष्यवाणियों की सटीकता को नाटकीय रूप से प्रभावित करेगा। एआई फायरवॉल संगठनों को इन डेटा विसंगतियों के बारे में अलर्ट कर सकता है और मॉडल को सही निर्णय लेने में मदद कर सकता है।

क्या कुछ अन्य जोखिम हैं जो एक एआई फायरवॉल संगठनों को रोकने में मदद करता है?

कोई भी कंपनी जो महत्वपूर्ण निर्णयों को स्वचालित करने के लिए एआई का उपयोग करती है, स्वचालित रूप से जोखिम की ओर ले जाती है। खराब डेटा एक शून्य के बजाय एक को इनपुट करना हो सकता है और अभी भी महत्वपूर्ण परिणाम हो सकते हैं। चाहे जोखिम गलत चिकित्सा भविष्यवाणियों का हो या उधार देने के बारे में गलत भविष्यवाणियां, एआई फायरवॉल संगठनों को जोखिम से बचाने में मदद करता है।

क्या रोबस्ट इंटेलिजेंस के बारे में और कुछ है जो आप साझा करना चाहेंगे?

रोबस्ट इंटेलिजेंस तेजी से बढ़ रहा है और हमें कई उत्कृष्ट उम्मीदवार मिल रहे हैं जो पदों के लिए आवेदन कर रहे हैं। लेकिन मैं जो强调 करना चाहता हूं वह यह है कि हम जिन उम्मीदवारों की तलाश कर रहे हैं उनमें सबसे महत्वपूर्ण गुण मिशन के प्रति जुनून है। हम कई उम्मीदवारों से मिलते हैं जो तकनीकी रूप से मजबूत हैं, इसलिए यह वास्तव में यह समझने में नीचे आता है कि क्या वे वास्तव में एआई जोखिम को समाप्त करने और दुनिया को एक सुरक्षित और बेहतर स्थान बनाने के लिए उत्साहित हैं।

जिस दुनिया में हम जा रहे हैं, वहां कई निर्णय जो वर्तमान में मानव द्वारा किए जा रहे हैं, स्वचालित किए जाएंगे। चाहे हमें यह पसंद हो या नहीं, यह एक तथ्य है। दिया गया है, रोबस्ट इंटेलिजेंस में हम सभी स्वचालित निर्णयों को जिम्मेदारी से किए जाने की इच्छा रखते हैं। इसलिए, जो कोई भी प्रभाव डालने के लिए उत्साहित है, जो समझता है कि यह लोगों के जीवन को कैसे प्रभावित कर सकता है, वह एक उम्मीदवार है जिसे हम रोबस्ट इंटेलिजेंस में शामिल होने की तलाश में हैं। हम उस जुनून की तलाश में हैं। हम उन लोगों की तलाश में हैं जो इस प्रौद्योगिकी का निर्माण करेंगे जिसका उपयोग पूरी दुनिया करेगी।

साक्षात्कार के लिए धन्यवाद, मुझे आपके दृष्टिकोण से सीखने में आनंद आया और एआई पूर्वाग्रह को रोकने की आवश्यकता पर, पाठक जो और जानना चाहते हैं उन्हें रोबस्ट इंटेलिजेंस पर जाना चाहिए।

рдПрдВрдЯреЛрдиреА рдПрдХ рджреВрд░рджрд░реНрд╢реА рдиреЗрддрд╛ рдФрд░ Unite.AI рдХреЗ рд╕рдВрд╕реНрдерд╛рдкрдХ рднрд╛рдЧреАрджрд╛рд░ рд╣реИрдВ, рдЬреЛ рдХрд┐ рдПрдЖрдИ рдФрд░ рд░реЛрдмреЛрдЯрд┐рдХреНрд╕ рдХреЗ рднрд╡рд┐рд╖реНрдп рдХреЛ рдЖрдХрд╛рд░ рджреЗрдиреЗ рдФрд░ рдмрдврд╝рд╛рд╡рд╛ рджреЗрдиреЗ рдХреЗ рд▓рд┐рдП рдПрдХ рдЕрдЯреВрдЯ рдЬреБрдиреВрди рд╕реЗ рдкреНрд░реЗрд░рд┐рдд рд╣реИрдВред рдПрдХ рд╢реНрд░реГрдВрдЦрд▓рд╛ рдЙрджреНрдпрдореА, рд╡рд╣ рдорд╛рдирддрд╛ рд╣реИ рдХрд┐ рдПрдЖрдИ рд╕рдорд╛рдЬ рдХреЗ рд▓рд┐рдП рдЙрддрдирд╛ рд╣реА рд╡рд┐рдШрдЯрдирдХрд╛рд░реА рд╣реЛрдЧрд╛ рдЬрд┐рддрдирд╛ рдХрд┐ рдмрд┐рдЬрд▓реА, рдФрд░ рдЕрдХреНрд╕рд░ рд╡рд┐рдШрдЯрдирдХрд╛рд░реА рдкреНрд░реМрджреНрдпреЛрдЧрд┐рдХрд┐рдпреЛрдВ рдФрд░ рдПрдЬреАрдЖрдИ рдХреА рд╕рдВрднрд╛рд╡рдирд╛ рдХреЗ рдмрд╛рд░реЗ рдореЗрдВ рдЙрддреНрд╕рд╛рд╣рд┐рдд рд╣реЛрддрд╛ рд╣реИред

рдПрдХ рдлреНрдпреВрдЪрд░рд┐рд╕реНрдЯ рдХреЗ рд░реВрдк рдореЗрдВ, рд╡рд╣ рдЗрди рдирд╡рд╛рдЪрд╛рд░реЛрдВ рдХреЗ рдорд╛рдзреНрдпрдо рд╕реЗ рд╣рдорд╛рд░реА рджреБрдирд┐рдпрд╛ рдХреЛ рдЖрдХрд╛рд░ рджреЗрдиреЗ рдХреА рдЦреЛрдЬ рдореЗрдВ рд╕рдорд░реНрдкрд┐рдд рд╣реИред рдЗрд╕рдХреЗ рдЕрд▓рд╛рд╡рд╛, рд╡рд╣ рд╕рд┐рдХреНрдпреЛрд░рд┐рдЯреАрдЬрд╝.io рдХреЗ рд╕рдВрд╕реНрдерд╛рдкрдХ рд╣реИрдВ, рдПрдХ рдордВрдЪ рдЬреЛ рднрд╡рд┐рд╖реНрдп рдХреЛ рдлрд┐рд░ рд╕реЗ рдкрд░рд┐рднрд╛рд╖рд┐рдд рдХрд░рдиреЗ рдФрд░ рдкреВрд░реЗ рдХреНрд╖реЗрддреНрд░реЛрдВ рдХреЛ рдлрд┐рд░ рд╕реЗ рдЖрдХрд╛рд░ рджреЗрдиреЗ рд╡рд╛рд▓реА рдЕрддреНрдпрд╛рдзреБрдирд┐рдХ рдкреНрд░реМрджреНрдпреЛрдЧрд┐рдХрд┐рдпреЛрдВ рдореЗрдВ рдирд┐рд╡реЗрд╢ рдкрд░ рдХреЗрдВрджреНрд░рд┐рдд рд╣реИред