рд╕рд╛рдХреНрд╖рд╛рддреНрдХрд╛рд░
рдпрд╛рд░реЛрди рд╕рд┐рдВрдЧрд░, рд░реЛрдмрд╕реНрдЯ рдЗрдВрдЯреЗрд▓рд┐рдЬреЗрдВрд╕ рдХреЗ рд╕реАрдИрдУ рдФрд░ рд╣рд╛рд░реНрд╡рд░реНрдб рд╡рд┐рд╢реНрд╡рд╡рд┐рджреНрдпрд╛рд▓рдп рдореЗрдВ рдХрдВрдкреНрдпреВрдЯрд░ рд╡рд┐рдЬреНрдЮрд╛рди рдХреЗ рдкреНрд░реЛрдлреЗрд╕рд░ – рд╕рд╛рдХреНрд╖рд╛рддреНрдХрд╛рд░ рд╢реНрд░реГрдВрдЦрд▓рд╛

यारोन सिंगर रोबस्ट इंटेलिजेंस के सीईओ और हार्वर्ड में कंप्यूटर विज्ञान और अनुप्रयुक्त गणित के प्रोफेसर हैं। यारोन मशीन लर्निंग, एल्गोरिदम और अनुकूलन में नए परिणामों के लिए जाने जाते हैं। पहले, यारोन ने गूगल रिसर्च में काम किया और यूसी बर्कले से अपनी पीएचडी प्राप्त की।
आपको कंप्यूटर विज्ञान और मशीन लर्निंग के क्षेत्र में क्या आकर्षित किया?
मेरी यात्रा गणित से शुरू हुई, जिसने मुझे कंप्यूटर विज्ञान की ओर ले जाया, जिसने मुझे मशीन लर्निंग की ओर अग्रसर किया। गणित ने मुझे आकर्षित किया क्योंकि इसकी अक्षमिक प्रणाली ने मुझे नए विश्व बनाने की क्षमता दी। कंप्यूटर विज्ञान के साथ, मैंने अस्तित्ववादी प्रमाणों के बारे में सीखा, लेकिन साथ ही उनके पीछे के एल्गोरिदम के बारे में भी। एक रचनात्मक दृष्टिकोण से, कंप्यूटर विज्ञान यह सीमाओं का निर्धारण है जो हम कर सकते हैं और नहीं कर सकते हैं।
मेरी मशीन लर्निंग में रुचि हमेशा वास्तविक डेटा में निहित रही है, लगभग इसके भौतिक पहलू में। वास्तविक दुनिया से चीजों को लेना और उन्हें अर्थपूर्ण बनाने के लिए मॉडलिंग करना। हम वास्तव में एक बेहतर दुनिया को इंजीनियर कर सकते हैं जो अर्थपूर्ण मॉडलिंग के माध्यम से हो। तो गणित ने मुझे सिद्ध करने के लिए एक आधार दिया, कंप्यूटर विज्ञान मुझे दिखाता है कि हम क्या कर सकते हैं और क्या नहीं कर सकते हैं, और मशीन लर्निंग मुझे इन अवधारणाओं को दुनिया में मॉडल करने में सक्षम बनाती है।
हाल ही में आप हार्वर्ड विश्वविद्यालय में कंप्यूटर विज्ञान और अनुप्रयुक्त गणित के प्रोफेसर थे, इस अनुभव से आपके कुछ मुख्य निष्कर्ष क्या थे?
हार्वर्ड में एक फैकल्टी सदस्य के रूप में मेरा सबसे बड़ा निष्कर्ष यह है कि यह बड़ी चीजों को करने के लिए एक की भूख विकसित करता है। हार्वर्ड में परंपरागत रूप से एक छोटी सी फैकल्टी है, और टेन्योर ट्रैक फैकल्टी से अपेक्षा की जाती है कि वे बड़ी समस्याओं को हल करें और नए क्षेत्र बनाएं। आपको साहसी होना होगा। यह अंततः एक श्रेणी-निर्माण करने वाले स्टार्टअप को लॉन्च करने और एक नए स्थान को परिभाषित करने के लिए महान तैयारी साबित होता है। मैं विशेष रूप से हार्वर्ड के टेन्योर ट्रैक से गुजरने की सिफारिश नहीं करता, लेकिन अगर आप उसे पार कर लेते हैं – तो एक स्टार्टअप बनाना आसान हो जाता है।
क्या आप उस ‘आहा’ क्षण का वर्णन कर सकते हैं जब आप यह महसूस करते हैं कि जटिल एआई प्रणालियां खराब डेटा के प्रति संवेदनशील हैं, जिसके कुछ दूरगामी परिणाम हो सकते हैं?
जब मैं यूसी बर्कले में स्नातक छात्र था, तो मैंने सोशल नेटवर्क में मार्केटिंग के लिए मशीन लर्निंग मॉडल बनाने वाला एक स्टार्टअप करने के लिए कुछ समय लिया। यह 2010 में था। हमारे पास सोशल मीडिया से बड़ी मात्रा में डेटा था, और हमने सभी मॉडलों को स्क्रैच से कोड किया। खुदरा विक्रेताओं के लिए वित्तीय परिणाम काफी महत्वपूर्ण थे, इसलिए हम मॉडल के प्रदर्शन का पालन किया। चूंकि हमने सोशल मीडिया से डेटा का उपयोग किया, इसलिए इनपुट में कई त्रुटियां थीं, साथ ही ड्रिफ्ट भी था। हमने देखा कि छोटी त्रुटियां मॉडल आउटपुट में बड़े परिवर्तन का कारण बन सकती हैं और खुदरा विक्रेताओं के लिए दुर्भाग्यपूर्ण वित्तीय परिणाम हो सकते हैं।
जब मैं गूगल+ (उन लोगों के लिए जो याद रखते हैं) पर काम करने के लिए स्थानांतरित हुआ, तो मैंने ठीक उसी प्रभाव को देखा। अधिक नाटकीय रूप से, एडवर्ड्स जैसी प्रणालियों में, जो विज्ञापनों पर क्लिक करने की संभावना के बारे में भविष्यवाणी करती हैं, हमने देखा कि मॉडल में छोटी त्रुटियां बहुत खराब भविष्यवाणियों का कारण बनती हैं। जब आप गूगल स्केल पर इस समस्या को देखते हैं, तो आपको एहसास होता है कि समस्या सार्वभौमिक है।
इन अनुभवों ने मेरे शोध फोकस को बहुत प्रभावित किया, और मैंने हार्वर्ड में यह जांच करने में समय बिताया कि एआई मॉडल क्यों गलतियां करते हैं और, महत्वपूर्ण रूप से, एल्गोरिदम कैसे डिज़ाइन किए जा सकते हैं जो मॉडल को गलतियां करने से रोक सकते हैं। यह, ज़ाहिर है, और ‘आहा’ क्षणों और, अंततः, रोबस्ट इंटेलिजेंस के निर्माण की ओर ले जाता है।
क्या आप रोबस्ट इंटेलिजेंस की उत्पत्ति की कहानी साझा कर सकते हैं?
रोबस्ट इंटेलिजेंस शोध के साथ शुरू हुआ जो पहले एक सैद्धांतिक समस्या था: एआई मॉडल के निर्णयों के लिए हम क्या गारंटी दे सकते हैं। कोजिन हार्वर्ड में एक छात्र था, और हमने साथ में काम किया, शुरू में शोध पत्र लिखना। तो यह शोध पत्रों के साथ शुरू होता है जो सैद्धांतिक रूप से संभव और असंभव क्या है, इसका रूपरेखा करते हैं। ये परिणाम बाद में एल्गोरिदम और मॉडल को डिज़ाइन करने के लिए एक कार्यक्रम में चले गए जो एआई विफलताओं के लिए मजबूत हैं। हमने फिर से ऐसी प्रणालियां बनाईं जो इन एल्गोरिदम को व्यावहारिक रूप से चला सकती हैं। उसके बाद, एक कंपनी शुरू करना जहां संगठन ऐसी प्रणाली का उपयोग कर सकते हैं, यह एक प्राकृतिक अगला कदम था।
रोबस्ट इंटेलिजेंस द्वारा संबोधित किए जाने वाले कई मुद्दे मौन त्रुटियां हैं, वे क्या हैं और वे इतने खतरनाक क्यों हैं?
मौन त्रुटियों की एक तकनीकी परिभाषा देने से पहले, यह समझने के लिए एक कदम पीछे लेना उचित है कि हम पहले स्थान पर एआई त्रुटियों की परवाह क्यों करते हैं। हम एआई मॉडल त्रुटियों की परवाह करते हैं क्योंकि इन त्रुटियों के परिणाम हैं। हमारी दुनिया महत्वपूर्ण निर्णयों को स्वचालित करने के लिए एआई का उपयोग कर रही है: कौन एक व्यवसाय ऋण प्राप्त करता है और किस दर पर, कौन स्वास्थ्य बीमा कवरेज प्राप्त करता है और किस दर पर, कौन से पड़ोस पुलिस को गश्त करना चाहिए, कौन एक नौकरी के लिए शीर्ष उम्मीदवार होने की सबसे अधिक संभावना है, हवाई अड्डे की सुरक्षा कैसे व्यवस्थित की जानी चाहिए, और इसी तरह। एआई मॉडल बहुत त्रुटि-प्रवण होने का तथ्य यह जोखिम का एक बड़ा सौदा है जो हम स्वचालित निर्णय लेने में विरासत में मिलता है। रोबस्ट इंटेलिजेंस में हम इसे “एआई जोखिम” कहते हैं और कंपनी में हमारा मिशन एआई जोखिम को समाप्त करना है।
मौन त्रुटियां एआई मॉडल त्रुटियां हैं जहां एआई मॉडल इनपुट प्राप्त करता है और एक भविष्यवाणी या निर्णय का उत्पादन करता है जो गलत या पूर्वाग्रहपूर्ण है। तो सतह पर, प्रणाली के लिए सब कुछ कार्यात्मक दृष्टिकोण से ठीक लगता है, क्योंकि एआई मॉडल वही कर रहा है जो यह करने के लिए है। लेकिन भविष्यवाणी या निर्णय गलत है। ये त्रुटियां मौन हैं क्योंकि प्रणाली को पता नहीं है कि एक त्रुटि है। यह एक ऐसे मामले से बहुत खराब हो सकता है जहां एक एआई मॉडल आउटपुट का उत्पादन नहीं कर रहा है, क्योंकि यह संगठनों को एहसास होने में लंबा समय लग सकता है कि उनकी एआई प्रणाली दोषपूर्ण है। फिर, एआई जोखिम एआई विफलताओं में बदल जाता है जिसके गंभीर परिणाम हो सकते हैं।
रोबस्ट इंटेलिजेंस ने मूल रूप से एक एआई फायरवॉल डिज़ाइन किया है, जो पहले असंभव माना जाता था। यह एक तकनीकी चुनौती क्यों है?
एक कारण एआई फायरवॉल एक चुनौती है क्योंकि यह एमएल समुदाय के प्रतिमान के खिलाफ जाता है। एमएल समुदाय का पिछला प्रतिमान यह था कि त्रुटियों को समाप्त करने के लिए, आपको मॉडल में अधिक डेटा खिलाना होगा, जिसमें खराब डेटा भी शामिल है। ऐसा करने से मॉडल स्वयं सीखेंगे और स्वयं त्रुटियों को सुधारेंगे। इस दृष्टिकोण के साथ समस्या यह है कि यह मॉडल की सटीकता को नाटकीय रूप से कम कर देता है। छवियों के लिए सबसे अच्छे परिणाम, उदाहरण के लिए, एआई मॉडल की सटीकता को 98.5% से लगभग 37% तक कम कर देते हैं।
एआई फायरवॉल एक अलग समाधान प्रदान करता है। हम त्रुटि की पहचान करने की समस्या को भविष्यवाणी बनाने की भूमिका से अलग करते हैं, जिसका अर्थ है कि फायरवॉल एक विशिष्ट कार्य पर ध्यान केंद्रित कर सकता है: निर्धारित करना कि क्या एक डेटापॉइंट एक त्रुटिपूर्ण भविष्यवाणी का उत्पादन करेगा।
यह स्वयं एक चुनौती थी क्योंकि एकल डेटा बिंदु पर एक भविष्यवाणी देना मुश्किल है। मॉडल त्रुटियां करने के कई कारण हैं, इसलिए एक प्रौद्योगिकी बनाना जो इन त्रुटियों की भविष्यवाणी कर सकती है, आसान काम नहीं था। हमें जो इंजीनियर मिले हैं उन्हें हम बहुत भाग्यशाली मानते हैं।
प्रणाली एआई पूर्वाग्रह को रोकने में कैसे मदद कर सकती है?
मॉडल पूर्वाग्रह डेटा के बीच एक विसंगति से आता है जिस पर मॉडल प्रशिक्षित किया गया था और जिस डेटा का उपयोग यह भविष्यवाणी करने के लिए करता है। एआई जोखिम पर वापस जाना, पूर्वाग्रह एक मुख्य मुद्दा है जो मौन त्रुटियों से जुड़ा है। उदाहरण के लिए, यह अक्सर कम प्रतिनिधित्व वाले जनसंख्या के साथ एक समस्या है। एक मॉडल में पूर्वाग्रह हो सकता है क्योंकि इसने उस जनसंख्या से कम डेटा देखा है, जो मॉडल के प्रदर्शन और इसकी भविष्यवाणियों की सटीकता को नाटकीय रूप से प्रभावित करेगा। एआई फायरवॉल संगठनों को इन डेटा विसंगतियों के बारे में अलर्ट कर सकता है और मॉडल को सही निर्णय लेने में मदद कर सकता है।
क्या कुछ अन्य जोखिम हैं जो एक एआई फायरवॉल संगठनों को रोकने में मदद करता है?
कोई भी कंपनी जो महत्वपूर्ण निर्णयों को स्वचालित करने के लिए एआई का उपयोग करती है, स्वचालित रूप से जोखिम की ओर ले जाती है। खराब डेटा एक शून्य के बजाय एक को इनपुट करना हो सकता है और अभी भी महत्वपूर्ण परिणाम हो सकते हैं। चाहे जोखिम गलत चिकित्सा भविष्यवाणियों का हो या उधार देने के बारे में गलत भविष्यवाणियां, एआई फायरवॉल संगठनों को जोखिम से बचाने में मदद करता है।
क्या रोबस्ट इंटेलिजेंस के बारे में और कुछ है जो आप साझा करना चाहेंगे?
रोबस्ट इंटेलिजेंस तेजी से बढ़ रहा है और हमें कई उत्कृष्ट उम्मीदवार मिल रहे हैं जो पदों के लिए आवेदन कर रहे हैं। लेकिन मैं जो强调 करना चाहता हूं वह यह है कि हम जिन उम्मीदवारों की तलाश कर रहे हैं उनमें सबसे महत्वपूर्ण गुण मिशन के प्रति जुनून है। हम कई उम्मीदवारों से मिलते हैं जो तकनीकी रूप से मजबूत हैं, इसलिए यह वास्तव में यह समझने में नीचे आता है कि क्या वे वास्तव में एआई जोखिम को समाप्त करने और दुनिया को एक सुरक्षित और बेहतर स्थान बनाने के लिए उत्साहित हैं।
जिस दुनिया में हम जा रहे हैं, वहां कई निर्णय जो वर्तमान में मानव द्वारा किए जा रहे हैं, स्वचालित किए जाएंगे। चाहे हमें यह पसंद हो या नहीं, यह एक तथ्य है। दिया गया है, रोबस्ट इंटेलिजेंस में हम सभी स्वचालित निर्णयों को जिम्मेदारी से किए जाने की इच्छा रखते हैं। इसलिए, जो कोई भी प्रभाव डालने के लिए उत्साहित है, जो समझता है कि यह लोगों के जीवन को कैसे प्रभावित कर सकता है, वह एक उम्मीदवार है जिसे हम रोबस्ट इंटेलिजेंस में शामिल होने की तलाश में हैं। हम उस जुनून की तलाश में हैं। हम उन लोगों की तलाश में हैं जो इस प्रौद्योगिकी का निर्माण करेंगे जिसका उपयोग पूरी दुनिया करेगी।
साक्षात्कार के लिए धन्यवाद, मुझे आपके दृष्टिकोण से सीखने में आनंद आया और एआई पूर्वाग्रह को रोकने की आवश्यकता पर, पाठक जो और जानना चाहते हैं उन्हें रोबस्ट इंटेलिजेंस पर जाना चाहिए।












