ठूंठ डीप लर्निंग क्या है? (2024) - यूनाइट.एआई
हमसे जुडे
एआई मास्टरक्लास:

एआई 101

डीप लर्निंग क्या है?

mm
Updated on

आर्टिफिशियल इंटेलिजेंस में डीप लर्निंग सबसे प्रभावशाली और सबसे तेजी से बढ़ते क्षेत्रों में से एक है। हालाँकि, गहन शिक्षण की सहज समझ प्राप्त करना कठिन हो सकता है क्योंकि गहन शिक्षण शब्द विभिन्न एल्गोरिदम और तकनीकों को शामिल करता है। डीप लर्निंग भी सामान्य रूप से मशीन लर्निंग का एक उप-अनुशासन है, इसलिए डीप लर्निंग को समझने के लिए यह समझना महत्वपूर्ण है कि मशीन लर्निंग क्या है।

मशीन लर्निंग क्या है?

ध्यान लगा के पढ़ना या सीखना मशीन लर्निंग से उत्पन्न कुछ अवधारणाओं का विस्तार है, इसलिए इस कारण से, आइए यह समझाने में एक मिनट का समय लें कि मशीन लर्निंग क्या है।

सीधे शब्दों में कहें तो, मशीन लर्निंग कंप्यूटर को उन कार्यों को पूरा करने के लिए उपयोग किए जाने वाले एल्गोरिदम की प्रत्येक पंक्ति को स्पष्ट रूप से कोड किए बिना विशिष्ट कार्यों को पूरा करने में सक्षम बनाने की एक विधि है। कई अलग-अलग मशीन लर्निंग एल्गोरिदम हैं, लेकिन सबसे अधिक उपयोग किए जाने वाले एल्गोरिदम में से एक है मल्टीलेयर परसेप्ट्रॉन. मल्टीलेयर परसेप्ट्रॉन को तंत्रिका नेटवर्क के रूप में भी जाना जाता है, और इसमें एक साथ जुड़े नोड्स/न्यूरॉन्स की एक श्रृंखला शामिल होती है। मल्टीलेयर परसेप्ट्रॉन में तीन अलग-अलग परतें होती हैं: इनपुट परत, छिपी हुई परत और आउटपुट परत।

इनपुट परत डेटा को नेटवर्क में ले जाती है, जहां इसे मध्य/छिपी परत में नोड्स द्वारा हेरफेर किया जाता है। छिपी हुई परत में नोड्स गणितीय कार्य हैं जो इनपुट परत से आने वाले डेटा में हेरफेर कर सकते हैं, इनपुट डेटा से प्रासंगिक पैटर्न निकाल सकते हैं। इस प्रकार तंत्रिका नेटवर्क "सीखता है"। तंत्रिका नेटवर्क को उनका नाम इस तथ्य से मिला है कि वे मानव मस्तिष्क की संरचना और कार्य से प्रेरित हैं।

नेटवर्क में नोड्स के बीच कनेक्शन के मान होते हैं जिन्हें वज़न कहा जाता है। ये मान अनिवार्य रूप से इस बारे में धारणाएं हैं कि एक परत का डेटा अगली परत के डेटा से कैसे संबंधित है। जैसे-जैसे नेटवर्क प्रशिक्षित होता है, वजन समायोजित किया जाता है, और लक्ष्य यह है कि डेटा के बारे में वजन/धारणाएं अंततः उन मूल्यों पर एकत्रित हो जाएंगी जो डेटा के भीतर सार्थक पैटर्न का सटीक रूप से प्रतिनिधित्व करते हैं।

सक्रियण फ़ंक्शन नेटवर्क के नोड्स में मौजूद होते हैं, और ये सक्रियण फ़ंक्शन डेटा को गैर-रेखीय फैशन में बदलते हैं, जिससे नेटवर्क डेटा के जटिल प्रतिनिधित्व को सीखने में सक्षम होता है। सक्रियण फ़ंक्शन इनपुट मानों को वज़न मानों से गुणा करते हैं और एक पूर्वाग्रह शब्द जोड़ते हैं।

डीप लर्निंग क्या है?

डीप लर्निंग मशीन लर्निंग आर्किटेक्चर को दिया गया शब्द है जो कई मल्टीलेयर परसेप्ट्रॉन को एक साथ जोड़ता है, ताकि केवल एक छिपी हुई परत न हो बल्कि कई छिपी हुई परतें हों। तंत्रिका नेटवर्क जितना "गहरा" होगा, नेटवर्क उतने ही अधिक परिष्कृत पैटर्न सीख सकता है।

न्यूरॉन्स से बने गहरे परत नेटवर्क को कभी-कभी पूरी तरह से जुड़े नेटवर्क या पूरी तरह से जुड़े परतों के रूप में संदर्भित किया जाता है, इस तथ्य को संदर्भित करते हुए कि एक दिया गया न्यूरॉन अपने आसपास के सभी न्यूरॉन्स से संबंध बनाए रखता है। अलग-अलग डीप लर्निंग आर्किटेक्चर बनाने के लिए पूरी तरह से जुड़े नेटवर्क को अन्य मशीन लर्निंग फ़ंक्शंस के साथ जोड़ा जा सकता है।

गहन शिक्षण के विभिन्न प्रकार

शोधकर्ताओं और इंजीनियरों द्वारा विभिन्न प्रकार के गहन शिक्षण आर्किटेक्चर का उपयोग किया जाता है, और प्रत्येक विभिन्न आर्किटेक्चर का अपना विशेष उपयोग मामला होता है।

संवादी तंत्रिका नेटवर्क

संवादी तंत्रिका नेटवर्क, या सीएनएन, तंत्रिका नेटवर्क आर्किटेक्चर हैं जिनका उपयोग आमतौर पर कंप्यूटर विज़न सिस्टम के निर्माण में किया जाता है। दृढ़ तंत्रिका नेटवर्क की संरचना उन्हें छवि डेटा की व्याख्या करने में सक्षम बनाती है, उन्हें संख्याओं में परिवर्तित करती है जिसे पूरी तरह से जुड़ा नेटवर्क व्याख्या कर सकता है। सीएनएन के चार प्रमुख घटक हैं:

  • संवादी परतें
  • सबसैंपलिंग/पूलिंग परतें
  • सक्रियण कार्य
  • पूरी तरह से जुड़ी हुई परतें

कनवल्शनल परतें नेटवर्क में इनपुट के रूप में छवियों को लेती हैं, छवियों का विश्लेषण करती हैं और पिक्सेल के मान प्राप्त करती हैं। सबसैंपलिंग या पूलिंग वह जगह है जहां छवियों के प्रतिनिधित्व को सरल बनाने और शोर के प्रति छवि फिल्टर की संवेदनशीलता को कम करने के लिए छवि मानों को परिवर्तित/कम किया जाता है। सक्रियण फ़ंक्शन नियंत्रित करते हैं कि डेटा एक परत से अगली परत तक कैसे प्रवाहित होता है, और पूरी तरह से जुड़ी हुई परतें छवि का प्रतिनिधित्व करने वाले मानों का विश्लेषण करती हैं और उन मानों में रखे गए पैटर्न को सीखती हैं।

आरएनएन/एलएसटीएम

आवर्तक तंत्रिका नेटवर्क, या आरएनएन, उन कार्यों के लिए लोकप्रिय हैं जहां डेटा का क्रम मायने रखता है, जहां नेटवर्क को डेटा के अनुक्रम के बारे में सीखना चाहिए। आरएनएन आमतौर पर प्राकृतिक भाषा प्रसंस्करण जैसी समस्याओं पर लागू होते हैं, क्योंकि किसी वाक्य के अर्थ को डिकोड करते समय शब्दों का क्रम मायने रखता है। आवर्तक तंत्रिका नेटवर्क शब्द का "आवर्ती" भाग इस तथ्य से आता है कि अनुक्रम में किसी दिए गए तत्व का आउटपुट पिछली गणना के साथ-साथ वर्तमान गणना पर भी निर्भर करता है। गहरे तंत्रिका नेटवर्क के अन्य रूपों के विपरीत, आरएनएन में "यादें" होती हैं, और अनुक्रम में विभिन्न समय चरणों पर गणना की गई जानकारी का उपयोग अंतिम मूल्यों की गणना के लिए किया जाता है।

द्विदिशात्मक आरएनएन सहित कई प्रकार के आरएनएन हैं, जो किसी आइटम के मूल्य की गणना करते समय, पिछली वस्तुओं के अलावा, अनुक्रम में भविष्य की वस्तुओं को भी ध्यान में रखते हैं। RNN का एक अन्य प्रकार है a लंबी अल्पकालिक मेमोरी, या LSTM, नेटवर्क। LSTM RNN के प्रकार हैं जो डेटा की लंबी श्रृंखला को संभाल सकते हैं। नियमित आरएनएन "विस्फोट ग्रेडिएंट समस्या" नामक चीज़ का शिकार हो सकते हैं। यह समस्या तब होती है जब इनपुट डेटा की श्रृंखला बहुत लंबी हो जाती है, लेकिन LSTM के पास इस समस्या से निपटने की तकनीक होती है।

आटो चालक

अब तक उल्लिखित अधिकांश गहन शिक्षण आर्किटेक्चर, बिना पर्यवेक्षित शिक्षण कार्यों के बजाय पर्यवेक्षित शिक्षण समस्याओं पर लागू होते हैं। ऑटोएन्कोडर्स अपर्यवेक्षित डेटा को पर्यवेक्षित प्रारूप में बदलने में सक्षम हैं, जिससे समस्या पर तंत्रिका नेटवर्क का उपयोग किया जा सकता है।

आटो चालक डेटासेट में विसंगतियों का पता लगाने के लिए अक्सर इसका उपयोग किया जाता है, विसंगति की प्रकृति ज्ञात नहीं होने के कारण यह बिना पर्यवेक्षण के सीखने का एक उदाहरण है। विसंगति का पता लगाने के ऐसे उदाहरणों में वित्तीय संस्थानों के लिए धोखाधड़ी का पता लगाना शामिल है। इस संदर्भ में, एक ऑटोएनकोडर का उद्देश्य डेटा में नियमित पैटर्न की आधार रेखा निर्धारित करना और विसंगतियों या आउटलेर्स की पहचान करना है।

ऑटोएनकोडर की संरचना अक्सर सममित होती है, जिसमें छिपी हुई परतें इस प्रकार व्यवस्थित होती हैं कि नेटवर्क का आउटपुट इनपुट जैसा दिखता है। चार प्रकार के ऑटोएनकोडर जिनका अक्सर उपयोग होता है वे हैं:

  • नियमित/सादा ऑटोएनकोडर
  • बहुपरत एनकोडर
  • कन्वेन्शनल एनकोडर
  • नियमित एनकोडर

नियमित/सादा ऑटोएनकोडर केवल एक छिपी हुई परत वाले तंत्रिका जाल होते हैं, जबकि बहुपरत ऑटोएनकोडर एक से अधिक छिपी हुई परत वाले गहरे नेटवर्क होते हैं। कन्वेन्शनल ऑटोएनकोडर पूरी तरह से कनेक्टेड परतों के बजाय या इसके अतिरिक्त, कन्वेन्शनल परतों का उपयोग करते हैं। नियमित ऑटोएनकोडर एक विशिष्ट प्रकार के हानि फ़ंक्शन का उपयोग करते हैं जो तंत्रिका नेटवर्क को इनपुट को आउटपुट में कॉपी करने के अलावा और अधिक जटिल कार्य, कार्य करने देता है।

जनरेटिव एडवरसियर नेटवर्क

जनरेशनल एडवरसियरी नेटवर्क (GANs) वास्तव में केवल एक नेटवर्क के बजाय कई गहरे तंत्रिका नेटवर्क हैं। दो गहन शिक्षण मॉडल को एक ही समय में प्रशिक्षित किया जाता है, और उनके आउटपुट दूसरे नेटवर्क को खिलाए जाते हैं। नेटवर्क एक-दूसरे के साथ प्रतिस्पर्धा में हैं, और चूंकि उन्हें एक-दूसरे के आउटपुट डेटा तक पहुंच मिलती है, इसलिए वे दोनों इस डेटा से सीखते हैं और सुधार करते हैं। दोनों नेटवर्क अनिवार्य रूप से जालसाजी और पहचान का खेल खेल रहे हैं, जहां जेनरेटिव मॉडल नए उदाहरण बनाने की कोशिश करता है जो जासूसी मॉडल/विवेचक को मूर्ख बना देगा। कंप्यूटर विज़न के क्षेत्र में GAN लोकप्रिय हो गए हैं।

गहन शिक्षण सारांश

गहन शिक्षण परिष्कृत मॉडल बनाने के लिए तंत्रिका नेटवर्क के सिद्धांतों का विस्तार करता है जो जटिल पैटर्न सीख सकते हैं और भविष्य के डेटासेट के लिए उन पैटर्न को सामान्यीकृत कर सकते हैं। कन्वेन्शनल न्यूरल नेटवर्क का उपयोग छवियों की व्याख्या करने के लिए किया जाता है, जबकि आरएनएन/एलएसटीएम का उपयोग अनुक्रमिक डेटा की व्याख्या करने के लिए किया जाता है। ऑटोएन्कोडर्स बिना पर्यवेक्षित शिक्षण कार्यों को पर्यवेक्षित शिक्षण कार्यों में बदल सकते हैं। अंत में, GAN एक-दूसरे के विरुद्ध खड़े किए गए कई नेटवर्क हैं जो विशेष रूप से कंप्यूटर विज़न कार्यों के लिए उपयोगी हैं।

विशेषज्ञता वाले ब्लॉगर और प्रोग्रामर मशीन लर्निंग और गहरी सीख विषय। डैनियल को उम्मीद है कि वह दूसरों को सामाजिक भलाई के लिए एआई की शक्ति का उपयोग करने में मदद करेगा।