Connect with us

10 सर्वश्रेष्ठ मशीन लर्निंग एल्गोरिदम

सर्वश्रेष्ठ

10 सर्वश्रेष्ठ मशीन लर्निंग एल्गोरिदम

mm

हालांकि हम GPU-त्वरित मशीन लर्निंग में असाधारण नवाचार के दौर से गुजर रहे हैं, नवीनतम शोध पत्र अक्सर (और प्रमुखता से) ऐसे एल्गोरिदम को प्रदर्शित करते हैं जो दशकों पुराने हैं, कुछ मामलों में 70 साल पुराने। कुछ लोग यह तर्क दे सकते हैं कि इनमें से कई पुरानी विधियाँ ‘सांख्यिकीय विश्लेषण’ के दायरे में आती हैं न कि मशीन लर्निंग के, और इस क्षेत्र की शुरुआत केवल 1957 से मानना पसंद करते हैं, पर्सेप्ट्रॉन के आविष्कार के साथ। इस हद तक कि ये पुराने एल्गोरिदम मशीन लर्निंग में नवीनतम रुझानों और सुर्खियाँ बटोरने वाले विकासों का समर्थन करते हैं और उनमें गुंथे हुए हैं, यह एक विवादास्पद रुख है। तो आइए नवीनतम नवाचारों को आधार प्रदान करने वाले कुछ ‘क्लासिक’ बिल्डिंग ब्लॉक्स के साथ-साथ कुछ नए प्रवेशकों पर एक नज़र डालें, जो एआई हॉल ऑफ फेम के लिए शुरुआती बोली लगा रहे हैं।

1: ट्रांसफॉर्मर्स

2017 में Google Research ने एक शोध सहयोग का नेतृत्व किया जिसका परिणाम पेपर Attention Is All You Need में निकला। इस कार्य ने एक नवीन आर्किटेक्चर की रूपरेखा प्रस्तुत की जिसने अटेंशन मैकेनिज्म को एनकोडर/डिकोडर और रिकरंट नेटवर्क मॉडल में ‘पाइपिंग’ से बढ़ाकर अपने आप में एक केंद्रीय परिवर्तनकारी तकनीक बना दिया। इस दृष्टिकोण को ट्रांसफॉर्मर नाम दिया गया, और तब से यह नेचुरल लैंग्वेज प्रोसेसिंग (एनएलपी) में एक क्रांतिकारी पद्धति बन गया है, जो कई अन्य उदाहरणों के अलावा, ऑटोरेग्रेसिव लैंग्वेज मॉडल और एआई पोस्टर-चाइल्ड GPT-3 को शक्ति प्रदान करता है। ट्रांसफॉर्मर्स ने सीक्वेंस ट्रांसडक्शन की समस्या को सुरुचिपूर्ण ढंग से हल किया, जिसे ‘ट्रांसफॉर्मेशन’ भी कहा जाता है, जो इनपुट अनुक्रमों को आउटपुट अनुक्रमों में प्रोसेस करने से संबंधित है। एक ट्रांसफॉर्मर डेटा को अनुक्रमिक बैचों के बजाय निरंतर तरीके से भी प्राप्त करता है और प्रबंधित करता है, जो एक ‘स्मृति की निरंतरता’ की अनुमति देता है जिसे प्राप्त करने के लिए आरएनएन आर्किटेक्चर डिज़ाइन नहीं किए गए हैं। ट्रांसफॉर्मर्स के अधिक विस्तृत अवलोकन के लिए, हमारे संदर्भ लेख पर एक नज़र डालें। रिकरंट न्यूरल नेटवर्क्स (आरएनएन) के विपरीत जो CUDA युग में एमएल शोध पर हावी होने लगे थे, ट्रांसफॉर्मर आर्किटेक्चर को भी आसानी से समानांतर किया जा सकता है, जिससे आरएनएन की तुलना में डेटा के कहीं अधिक बड़े कोष को उत्पादक ढंग से संबोधित करने का रास्ता खुल गया। लोकप्रिय उपयोग ट्रांसफॉर्मर्स ने 2020 में OpenAI के GPT-3 के रिलीज़ के साथ जनता की कल्पना पर कब्जा कर लिया, जिसने तब एक रिकॉर्ड-तोड़ 175 बिलियन पैरामीटर का दावा किया था। यह प्रतीत होने वाला चौंका देने वाला उपलब्धि अंततः बाद की परियोजनाओं, जैसे कि 2021 में Microsoft के Megatron-Turing NLG 530B के रिलीज़ से ओझल हो गई, जिसमें (जैसा कि नाम से पता चलता है) 530 बिलियन से अधिक पैरामीटर हैं।

हाइपरस्केल ट्रांसफॉर्मर एनएलपी परियोजनाओं की एक समयरेखा। स्रोत: Microsoft

हाइपरस्केल ट्रांसफॉर्मर एनएलपी परियोजनाओं की एक समयरेखा। स्रोत: Microsoft

ट्रांसफॉर्मर आर्किटेक्चर एनएलपी से कंप्यूटर विजन में भी पार हो गया है, जो OpenAI के CLIP और DALL-E जैसे इमेज सिंथेसिस फ्रेमवर्क की नई पीढ़ी को शक्ति प्रदान कर रहा है, जो बढ़ती संख्या में संबंधित अनुप्रयोगों के बीच, अधूरी छवियों को पूरा करने और प्रशिक्षित डोमेन से नई छवियों को संश्लेषित करने के लिए टेक्स्ट>इमेज डोमेन मैपिंग का उपयोग करते हैं।

DALL-E प्लेटो की एक आंशिक छवि को पूरा करने का प्रयास करता है। स्रोत: https://openai.com/blog/dall-e/

DALL-E प्लेटो की एक आंशिक छवि को पूरा करने का प्रयास करता है। स्रोत: https://openai.com/blog/dall-e/

2: जेनरेटिव एडवरसैरियल नेटवर्क्स (GANs)

हालांकि ट्रांसफॉर्मर्स ने GPT-3 के रिलीज़ और अपनाने के माध्यम से असाधारण मीडिया कवरेज प्राप्त की है, जेनरेटिव एडवरसैरियल नेटवर्क (GAN) अपने आप में एक पहचानने योग्य ब्रांड बन गया है, और अंततः डीपफेक के साथ एक क्रिया के रूप में शामिल हो सकता है। पहली बार 2014 में प्रस्तावित और मुख्य रूप से छवि संश्लेषण के लिए उपयोग किया जाता है, एक जेनरेटिव एडवरसैरियल नेटवर्क आर्किटेक्चर एक जेनरेटर और एक डिस्क्रिमिनेटर से बना होता है। जेनरेटर डेटासेट में हजारों छवियों के माध्यम से चक्र करता है, उन्हें पुनर्निर्माण करने का पुनरावृत्त रूप से प्रयास करता है। प्रत्येक प्रयास के लिए, डिस्क्रिमिनेटर जेनरेटर के काम को ग्रेड करता है, और जेनरेटर को बेहतर करने के लिए वापस भेजता है, लेकिन पिछले पुनर्निर्माण में गलती कहाँ हुई थी, इसके बारे में कोई अंतर्दृष्टि दिए बिना।

स्रोत: https://developers.google.com/machine-learning/gan/gan_structure

स्रोत: https://developers.google.com/machine-learning/gan/gan_structure

यह जेनरेटर को कई मार्गों का पता लगाने के लिए मजबूर करता है, बजाय इसके कि संभावित अंधी गलियों का पालन करे जो तब हुआ होता अगर डिस्क्रिमिनेटर ने उसे बताया होता कि वह कहाँ गलत जा रहा है (नीचे #8 देखें)। प्रशिक्षण समाप्त होने तक, जेनरेटर के पास डेटासेट में बिंदुओं के बीच संबंधों का एक विस्तृत और व्यापक मानचित्र होता है।

शोधकर्ताओं के साथ वीडियो का एक अंश (लेख के अंत में एम्बेड देखें)। ध्यान दें कि उपयोगकर्ता 'ग्रैब' कर्सर (ऊपर बाएं) के साथ परिवर्तनों में हेरफेर कर रहा है। स्रोत:

पेपर से Improving GAN Equilibrium by Raising Spatial Awareness: एक नवीन फ्रेमवर्क कभी-कभी रहस्यमय GAN के अव्यक्त स्थान (लेटेंट स्पेस) के माध्यम से चक्र करता है, एक छवि संश्लेषण आर्किटेक्चर के लिए उत्तरदायी साधन प्रदान करता है। स्रोत: https://genforce.github.io/eqgan/

सादृश्य से, यह केंद्रीय लंदन के लिए एक एकल नीरस आवागमन सीखने, या कष्टपूर्वक द नॉलेज हासिल करने के बीच का अंतर है। परिणाम प्रशिक्षित मॉडल के अव्यक्त स्थान में उच्च-स्तरीय विशेषताओं का एक संग्रह है। एक उच्च स्तरीय विशेषता के लिए शब्दार्थ संकेतक ‘व्यक्ति’ हो सकता है, जबकि विशेषता से संबंधित विशिष्टता के माध्यम से उतरने पर अन्य सीखी गई विशेषताएं, जैसे ‘पुरुष’ और ‘महिला’ का पता चल सकता है। निचले स्तरों पर उप-विशेषताएं ‘गोरी’, ‘कोकेशियान’, आदि में विभाजित हो सकती हैं। उलझाव GANs और एनकोडर/डिकोडर फ्रेमवर्क के अव्यक्त स्थान में एक उल्लेखनीय मुद्दा है: क्या एक GAN-जनित महिला चेहरे पर मुस्कान अव्यक्त स्थान में उसकी ‘पहचान’ की एक उलझी हुई विशेषता है, या यह एक समानांतर शाखा है? thispersondoesnotexist से GAN-जनित चेहरे। स्रोत: https://this-person-does-not-exist.com/en thispersondoesnotexist से GAN-जनित चेहरे। स्रोत: https

लेखक मशीन लर्निंग पर, मानव छवि संश्लेषण में डोमेन विशेषज्ञ। Metaphysic.ai में पूर्व अनुसंधान सामग्री प्रमुख।
व्यक्तिगत साइट: martinanderson.ai
संपर्क: [email protected]
ट्विटर: @manders_ai