AI 101
डीप लर्निंग क्या है?
डीप लर्निंग आर्टिफ़िशियल इंटेलिजेंस के सबसे प्रभावशाली और तेजी से बढ़ते क्षेत्रों में से एक है। हालांकि, डीप लर्निंग की एक सहज समझ प्राप्त करना मुश्किल हो सकता है क्योंकि डीप लर्निंग शब्द विभिन्न अल्गोरिदम और तकनीकों को कवर करता है। डीप लर्निंग मशीन लर्निंग की एक उप-विधा भी है, इसलिए यह समझने के लिए कि मशीन लर्निंग क्या है, यह डीप लर्निंग को समझने के लिए महत्वपूर्ण है।
मशीन लर्निंग क्या है?
डीप लर्निंग मशीन लर्निंग से उत्पन्न कुछ अवधारणाओं का विस्तार है, इसलिए इस कारण से, आइए एक मिनट लें और समझाएं कि मशीन लर्निंग क्या है।
साधारण शब्दों में, मशीन लर्निंग कंप्यूटरों को विशिष्ट कार्यों को निर्देश दिए बिना प्रत्येक एल्गोरिदम की प्रत्येक पंक्ति को स्पष्ट रूप से कोड करने की अनुमति देने का एक तरीका है। कई अलग-अलग मशीन लर्निंग एल्गोरिदम हैं, लेकिन सबसे अधिक इस्तेमाल किए जाने वाले एल्गोरिदम में से एक मल्टीलेयर परसेप्ट्रॉन है। एक मल्टीलेयर परसेप्ट्रॉन को तंत्रिका नेटवर्क के रूप में भी जाना जाता है, और यह नोड्स/न्यूरॉन्स की एक श्रृंखला से बना होता है जो एक दूसरे से जुड़े होते हैं। एक मल्टीलेयर परसेप्ट्रॉन में तीन अलग-अलग परतें होती हैं: इनपुट परत, हिडन परत, और आउटपुट परत।
इनपुट परत नेटवर्क में डेटा लेती है, जहां इसे हिडन/मध्य परत में नोड्स द्वारा मैनिप्युलेट किया जाता है। हिडन परत में नोड्स गणितीय फ़ंक्शन होते हैं जो इनपुट परत से आने वाले डेटा को मैनिप्युलेट कर सकते हैं, इनपुट डेटा से प्रासंगिक पैटर्न निकाल सकते हैं। यही वह तरीका है जिससे न्यूरल नेटवर्क “सीखता” है। न्यूरल नेटवर्क्स को उनका नाम मिलता है क्योंकि वे मानव मस्तिष्क की संरचना और कार्य से प्रेरित होते हैं।
नेटवर्क में नोड्स के बीच कनेक्शनों में वजन नामक मान होते हैं। ये मान मूल रूप से यह मान होते हैं कि एक परत में डेटा दूसरी परत में डेटा से कैसे संबंधित है। जैसे ही नेटवर्क प्रशिक्षित होता है, वजन समायोजित होते हैं, और लक्ष्य यह है कि वजन/डेटा के बारे में धारणाएं अंततः डेटा के भीतर अर्थपूर्ण पैटर्न का सटीक प्रतिनिधित्व करने वाले मानों पर समाप्त हो जाएंगी।
नेटवर्क के नोड्स में एक्टिवेशन फ़ंक्शन मौजूद होते हैं, और ये एक्टिवेशन फ़ंक्शन डेटा को एक गैर-रेखीय तरीके से बदलते हैं, जिससे नेटवर्क डेटा के जटिल प्रतिनिधित्व सीख सकता है। एक्टिवेशन फ़ंक्शन इनपुट मानों को वजन मानों से गुणा करते हैं और एक पूर्वाग्रह शब्द जोड़ते हैं।
डीप लर्निंग क्या है?
डीप लर्निंग मशीन लर्निंग आर्किटेक्चर को दिया गया शब्द है जो कई मल्टीलेयर परसेप्ट्रॉन को एक साथ जोड़ता है, ताकि केवल एक हिडन परत न हो, बल्कि कई हिडन परतें हों। जितना “गहरा” डीप न्यूरल नेटवर्क होगा, उतने ही जटिल पैटर्न नेटवर्क सीख सकता है।
गहरे परत नेटवर्क जो न्यूरॉन्स से बने होते हैं उन्हें पूरी तरह से जुड़े हुए नेटवर्क या पूरी तरह से जुड़े हुए परतें कहा जाता है, जो इस तथ्य को संदर्भित करता है कि एक दिए गए न्यूरॉन अपने आसपास के सभी न्यूरॉन्स से जुड़ा होता है। पूरी तरह से जुड़े हुए नेटवर्क को अन्य मशीन लर्निंग फ़ंक्शन के साथ मिलाकर विभिन्न डीप लर्निंग आर्किटेक्चर बनाने के लिए जोड़ा जा सकता है।
डीप लर्निंग के विभिन्न प्रकार
शोधकर्ताओं और इंजीनियरों द्वारा उपयोग की जाने वाली विभिन्न डीप लर्निंग आर्किटेक्चर हैं, और प्रत्येक आर्किटेक्चर का अपना विशेष उपयोग मामला है।
कन्वोल्यूशनल न्यूरल नेटवर्क
कन्वोल्यूशनल न्यूरल नेटवर्क, या सीएनएन, कंप्यूटर विजन सिस्टम के निर्माण में उपयोग की जाने वाली न्यूरल नेटवर्क आर्किटेक्चर है। कन्वोल्यूशनल न्यूरल नेटवर्क की संरचना उन्हें इमेज डेटा की व्याख्या करने में सक्षम बनाती है, जिसे पूरी तरह से जुड़े हुए नेटवर्क द्वारा व्याख्या किए जाने वाले संख्याओं में परिवर्तित किया जा सकता है। एक सीएनएन में चार प्रमुख घटक होते हैं:
- कन्वोल्यूशनल परतें
- सबसैंपलिंग/पूलिंग परतें
- एक्टिवेशन फ़ंक्शन
- पूरी तरह से जुड़े हुए परतें
कन्वोल्यूशनल परतें वे हैं जो नेटवर्क में इमेज को इनपुट के रूप में लेती हैं, जो इमेज का विश्लेषण करती हैं और पिक्सेल के मान प्राप्त करती हैं। सबसैंपलिंग या पूलिंग वह है जहां इमेज मानों को सरल बनाने और छवि फिल्टर की शोर के प्रति संवेदनशीलता को कम करने के लिए परिवर्तित/कम किया जाता है। एक्टिवेशन फ़ंक्शन नियंत्रित करते हैं कि डेटा एक परत से दूसरी परत में कैसे प्रवाहित होता है, और पूरी तरह से जुड़े हुए परतें वे हैं जो इमेज का प्रतिनिधित्व करने वाले मानों का विश्लेषण करती हैं और उन मानों में निहित पैटर्न सीखती हैं।
आरएनएन/एलएसटीएम
रिकरेंट न्यूरल नेटवर्क, या आरएनएन, डेटा क्रम के कार्यों के लिए लोकप्रिय हैं, जहां नेटवर्क को डेटा की एक श्रृंखला के बारे में सीखना होता है। आरएनएन को प्राकृतिक भाषा प्रसंस्करण जैसी समस्याओं पर लागू किया जाता है, क्योंकि वाक्य के अर्थ को डिकोड करने में शब्दों का क्रम मायने रखता है। “रिकरेंट” शब्द रिकरेंट न्यूरल नेटवर्क का अर्थ है कि एक श्रृंखला में एक दिए गए तत्व के लिए आउटपुट पिछले गणना के साथ-साथ वर्तमान गणना पर निर्भर करता है। अन्य प्रकार के डीप न्यूरल नेटवर्क के विपरीत, आरएनएन में “स्मृति” होती है, और श्रृंखला में विभिन्न समय चरणों में गणना की जाने वाली जानकारी का उपयोग अंतिम मानों की गणना के लिए किया जाता है।
आरएनएन के कई प्रकार हैं, जिनमें द्विदिश न्यूरल नेटवर्क शामिल हैं, जो एक आइटम के मान की गणना करते समय श्रृंखला में भविष्य की वस्तुओं के साथ-साथ पिछली वस्तुओं को भी ध्यान में रखते हैं। आरएनएन का एक अन्य प्रकार लॉन्ग शॉर्ट-टर्म मेमोरी, या एलएसटीएम, नेटवर्क है। एलएसटीएम आरएनएन के प्रकार हैं जो लंबी डेटा श्रृंखलाओं को संभाल सकते हैं। नियमित आरएनएन “विस्फोटक ग्रेडिएंट समस्या” से पीड़ित हो सकते हैं। यह समस्या तब होती है जब इनपुट डेटा की श्रृंखला बहुत लंबी हो जाती है, लेकिन एलएसटीएम इस समस्या से निपटने के लिए तकनीकें हैं।
ऑटोएनकोडर
अब तक उल्लिखित अधिकांश डीप लर्निंग आर्किटेक्चर पर्यवेक्षित लर्निंग समस्याओं पर लागू होते हैं, असुपरवाइज्ड लर्निंग कार्यों के बजाय। ऑटोएनकोडर असुपरवाइज्ड डेटा को पर्यवेक्षित प्रारूप में परिवर्तित कर सकते हैं, जिससे न्यूरल नेटवर्क को समस्या पर उपयोग किया जा सकता है।
ऑटोएनकोडर का उपयोग अक्सर डेटासेट में असामान्यताओं का पता लगाने के लिए किया जाता है, जो असुपरवाइज्ड लर्निंग का एक उदाहरण है, क्योंकि असामान्यता की प्रकृति ज्ञात नहीं है। ऐसे असामान्यता का पता लगाने के उदाहरणों में वित्तीय संस्थानों के लिए धोखाधड़ी का पता लगाना शामिल है। इस संदर्भ में, ऑटोएनकोडर का उद्देश्य डेटा में नियमित पैटर्न का एक बेसलाइन निर्धारित करना और असामान्यताओं या आउटलियर्स की पहचान करना है।
ऑटोएनकोडर की संरचना अक्सर सममित होती है, जिसमें हिडन परतें इस तरह से व्यवस्थित होती हैं कि नेटवर्क का आउटपुट इनपुट के समान होता है। ऑटोएनकोडर के चार प्रकार हैं जो अक्सर उपयोग किए जाते हैं:
- नियमित/सादे ऑटोएनकोडर
- मल्टीलेयर एनकोडर
- कन्वोल्यूशनल एनकोडर
- नियमित एनकोडर
नियमित/सादे ऑटोएनकोडर केवल एक ही हिडन परत वाले न्यूरल नेट होते हैं, जबकि मल्टीलेयर ऑटोएनकोडर एक से अधिक हिडन परतों वाले गहरे नेटवर्क होते हैं। कन्वोल्यूशनल ऑटोएनकोडर पूरी तरह से जुड़े हुए परतों के बजाय, या इसके अलावा, कन्वोल्यूशनल परतों का उपयोग करते हैं। नियमित ऑटोएनकोडर एक विशिष्ट प्रकार के नुकसान फ़ंक्शन का उपयोग करते हैं जो न्यूरल नेटवर्क को इनपुट की प्रतिलिपि बनाने के अलावा अधिक जटिल कार्य करने की अनुमति देता है।
जनरेटिव एडवर्सेरियल नेटवर्क
जनरेटिव एडवर्सेरियल नेटवर्क (जीएएन) वास्तव में एक ही नेटवर्क के बजाय कई गहरे न्यूरल नेटवर्क हैं। दो गहरे लर्निंग मॉडल एक साथ प्रशिक्षित होते हैं, और उनके आउटपुट दूसरे नेटवर्क में फीड किए जाते हैं। नेटवर्क एक दूसरे के साथ प्रतिस्पर्धा में हैं, और चूंकि वे एक दूसरे के आउटपुट डेटा तक पहुंच प्राप्त करते हैं, वे दोनों इस डेटा से सीखते हैं और सुधारते हैं। नेटवर्क मूल रूप से एक दूसरे के साथ नकली और पता लगाने का खेल खेल रहे हैं, जहां जनरेटिव मॉडल नए उदाहरण बनाने का प्रयास करता है जो डिटेक्टिव मॉडल/विभेदक को धोखा देगा। जीएएन कंप्यूटर विजन के क्षेत्र में लोकप्रिय हो गए हैं।
डीप लर्निंग सारांश
डीप लर्निंग न्यूरल नेटवर्क के सिद्धांतों को विस्तारित करता है ताकि जटिल पैटर्न सीखने वाले मॉडल बनाए जा सकें और उन पैटर्न को भविष्य के डेटासेट में सामान्य कर सकें। कन्वोल्यूशनल न्यूरल नेटवर्क का उपयोग इमेज की व्याख्या के लिए किया जाता है, जबकि आरएनएन/एलएसटीएम का उपयोग अनुक्रमिक डेटा की व्याख्या के लिए किया जाता है। ऑटोएनकोडर असुपरवाइज्ड लर्निंग कार्यों को पर्यवेक्षित लर्निंग कार्यों में परिवर्तित कर सकते हैं। अंत में, जीएएन कंप्यूटर विजन कार्यों के लिए विशेष रूप से उपयोगी हैं जो एक दूसरे के खिलाफ कई नेटवर्क हैं।












