рдХреГрддреНрд░рд┐рдо рдмреБрджреНрдзрд┐рдорддреНрддрд╛
рдоixture-рдСрдл-рдПрдХреНрд╕рдкрд░реНрдЯреНрд╕ рдХрд╛ рдЙрджрдп рдХреБрд╢рд▓ рдмрдбрд╝реЗ рднрд╛рд╖рд╛ рдореЙрдбрд▓ рдХреЗ рд▓рд┐рдП

By
Aayush Mittal Mittal
प्राकृतिक भाषा प्रसंस्करण (एनएलपी) की दुनिया में, बड़े और अधिक सक्षम भाषा मॉडल बनाने की खोज कई हालिया प्रगति के पीछे एक प्रेरक शक्ति रही है। हालांकि, जैसे-जैसे ये मॉडल आकार में बढ़ते हैं, प्रशिक्षण और अनुमान के लिए गणना आवश्यकताएं अधिक मांग वाली होती जाती हैं, जो उपलब्ध हार्डवेयर संसाधनों की सीमाओं के खिलाफ दबाव डालती हैं।
मixture-ऑफ-एक्सपर्ट्स (मोए) का परिचय दें, एक तकनीक जो इस गणना बोझ को कम करने का वादा करती है और बड़े और अधिक शक्तिशाली भाषा मॉडलों को प्रशिक्षित करने की अनुमति देती है। नीचे, हम मोए, इसकी उत्पत्ति, आंतरिक कार्य और ट्रांसफॉर्मर-आधारित भाषा मॉडल में इसके अनुप्रयोगों पर चर्चा करेंगे।
मixture-ऑफ-एक्सपर्ट्स की उत्पत्ति
मixture-ऑफ-एक्सपर्ट्स (मोए) की अवधारणा को 1990 के दशक की शुरुआत में वापस देखा जा सकता है जब शोधकर्ताओं ने सशर्त गणना के विचार का अन्वेषण किया, जहां तंत्रिका नेटवर्क के हिस्से इनपुट डेटा के आधार पर चुनिंदा रूप से सक्रिय होते हैं। इस क्षेत्र में अग्रणी कार्यों में से एक जैकब्स एट अल द्वारा 1991 में “एडाप्टिव मिक्सचर ऑफ लोकल एक्सपर्ट्स” पत्र था, जिसने एक पर्यवेक्षित लर्निंग फ्रेमवर्क का प्रस्ताव किया था। एक तंत्रिका नेटवर्क के लिए, प्रत्येक एक अलग इनपुट स्थान क्षेत्र में विशेषज्ञता रखता है।
मोए के पीछे का मूल विचार यह है कि कई “विशेषज्ञ” नेटवर्क हों, प्रत्येक इनपुट डेटा के एक उपसेट को संसाधित करने के लिए जिम्मेदार है। एक गेटिंग तंत्र, जो आमतौर पर स्वयं एक तंत्रिका नेटवर्क होता है, यह निर्धारित करता है कि कौन से विशेषज्ञ को एक दिए गए इनपुट को संसाधित करना चाहिए। यह दृष्टिकोण मॉडल को अपने गणना संसाधनों को अधिक कुशलता से आवंटित करने की अनुमति देता है क्योंकि यह प्रत्येक इनपुट के लिए केवल प्रासंगिक विशेषज्ञों को सक्रिय करता है, पूरे मॉडल क्षमता को प्रत्येक इनपुट के लिए नियोजित करने के बजाय।
वर्षों से, विभिन्न शोधकर्ताओं ने सशर्त गणना के विचार का अन्वेषण और विस्तार किया, जिससे हायरार्किकल मोए, सशर्त गणना के लिए कम रैंक अनुमान, और स्टोकेस्टिक न्यूरॉन्स और हार्ड-थ्रेशोल्ड एक्टिवेशन फ़ंक्शन के माध्यम से ग्रेडिएंट्स का अनुमान लगाने की तकनीकों जैसे विकास हुए।
ट्रांसफॉर्मर में मixture-ऑफ-एक्सपर्ट्स
जबकि मोए का विचार दशकों से आसपास है, इसका ट्रांसफॉर्मर-आधारित भाषा मॉडल में अनुप्रयोग अपेक्षाकृत हाल का है। ट्रांसफॉर्मर, जो राज्य-ऑफ-द-आर्ट भाषा मॉडल के लिए डी फैक्टो मानक बन गए हैं, कई परतों से बने होते हैं, प्रत्येक में एक स्व-ध्यान तंत्र और एक फीड-फॉरवर्ड न्यूरल नेटवर्क (एफएफएन) होता है।
ट्रांसफॉर्मर में मोए का अनुप्रयोग करने में मुख्य नवाचार घने एफएफएन परतों को घने मोए परतों से बदलना है, प्रत्येक में कई विशेषज्ञ एफएफएन और एक गेटिंग तंत्र शामिल है। गेटिंग तंत्र यह निर्धारित करता है कि प्रत्येक इनपुट टोकन को कौन से विशेषज्ञ संसाधित करने चाहिए, मॉडल को चुनिंदा रूप से केवल एक इनपुट अनुक्रम के लिए एक उपसेट विशेषज्ञों को सक्रिय करने की अनुमति देता है।
मोए को ट्रांसफॉर्मर में लागू करने वाले पहले कार्यों में से एक शेज़र एट अल द्वारा 2017 में “आउट्रेजस लार्ज न्यूरल नेटवर्क: द स्पार्सली-गेटेड मिक्सचर-ऑफ-एक्सपर्ट्स लेयर” पत्र था। इस कार्य ने एक स्पार्सली-गेटेड मोए परत की अवधारणा पेश की, जिसने गेटिंग तंत्र में स्पार्सिटी और शोर जोड़ा, यह सुनिश्चित करते हुए कि प्रत्येक इनपुट के लिए केवल एक उपसेट विशेषज्ञ सक्रिय हों।
इसके बाद, कई अन्य कार्यों ने ट्रांसफॉर्मर में मोए के अनुप्रयोग को आगे बढ़ाया, जैसे कि प्रशिक्षण अस्थिरता, लोड संतुलन, और कुशल अनुमान जैसी चुनौतियों का सामना किया। उल्लेखनीय उदाहरणों में शामिल हैं स्विच ट्रांसफॉर्मर (फेडस एट अल, 2021), एसटी-मोए (ज़ोफ एट अल, 2022), और जीएलएएम (डू एट अल, 2022)।
भाषा मॉडल के लिए मixture-ऑफ-एक्सपर्ट्स के लाभ
भाषा मॉडल में मोए का नियोजन करने का प्राथमिक लाभ यह है कि मॉडल के आकार को बढ़ाते समय अनुमान के दौरान एक अपेक्षाकृत स्थिर गणना लागत बनाए रखने की क्षमता है। प्रत्येक इनपुट टोकन के लिए केवल एक उपसेट विशेषज्ञों को चुनिंदा रूप से सक्रिय करके, मोए मॉडल बहुत बड़े घने मॉडल की अभिव्यक्ति शक्ति प्राप्त कर सकते हैं जबकि काफी कम गणना की आवश्यकता होती है।
उदाहरण के लिए, एक भाषा मॉडल पर विचार करें जिसमें 7 बिलियन पैरामीटर वाली घनी एफएफएन परत है। यदि हम इस परत को 7 बिलियन पैरामीटर वाले आठ विशेषज्ञों के साथ मोए परत से बदल दें, तो कुल पैरामीटर संख्या 56 बिलियन हो जाती है। हालांकि, अनुमान के दौरान, यदि हम प्रति टोकन केवल दो विशेषज्ञों को सक्रिय करते हैं, तो गणना लागत 14 बिलियन पैरामीटर घने मॉडल के बराबर होती है, क्योंकि यह दो 7 बिलियन पैरामीटर मैट्रिक्स गुणा करता है।
यह अनुमान के दौरान गणना की दक्षता विशेष रूप से मूल्यवान है जहां संसाधन सीमित हैं, जैसे मोबाइल डिवाइस या एज कंप्यूटिंग वातावरण। इसके अलावा, प्रशिक्षण के दौरान कम गणना आवश्यकता महत्वपूर्ण ऊर्जा बचत और कम कार्बन फुटप्रिंट का परिणाम हो सकती है, जो टिकाऊ एआई प्रथाओं पर बढ़ती जोर के साथ संरेखित है।
चुनौतियाँ और विचार
मोए मॉडल प्रलोभनक लाभ प्रदान करते हैं, उनके अपनाने और तैनाती में भी कई चुनौतियाँ और विचार हैं:
- प्रशिक्षण अस्थिरता: मोए मॉडल अपने घने समकक्षों की तुलना में प्रशिक्षण अस्थिरता के लिए अधिक प्रवण होते हैं। यह मुद्दा विशेषज्ञ सक्रियण की स्पार्स और सशर्त प्रकृति से उत्पन्न होता है, जो ग्रेडिएंट प्रोपेगेशन और अभिसरण में चुनौतियाँ पैदा कर सकता है। तकनीकों जैसे राउटर जेड-लॉस (ज़ोफ एट अल, 2022) को इन अस्थिरताओं को कम करने के लिए प्रस्तावित किया गया है, लेकिन आगे शोध की अभी भी आवश्यकता है।
- फ़ाइनट्यूनिंग और ओवरफिटिंग: मोए मॉडल फ़ाइनट्यूनिंग के दौरान अधिक आसानी से ओवरफिट होते हैं, विशेष रूप से जब डाउनस्ट्रीम कार्य में एक अपेक्षाकृत छोटा डेटासेट होता है। यह व्यवहार मोए मॉडल की बढ़ी हुई क्षमता और स्पार्सिटी के कारण होता है, जो प्रशिक्षण डेटा पर अधिक विशेषज्ञता का कारण बन सकता है। इस मुद्दे को कम करने के लिए सावधान नियमितीकरण और फ़ाइनट्यूनिंग रणनीतियों की आवश्यकता है।
- मेमोरी आवश्यकताएँ: जबकि मोए मॉडल अनुमान के दौरान गणना लागत को कम कर सकते हैं, वे अक्सर समान आकार के घने मॉडल की तुलना में उच्च मेमोरी आवश्यकताओं के साथ आते हैं। यह इसलिए है क्योंकि सभी विशेषज्ञ भारों को मेमोरी में लोड किया जाना चाहिए, भले ही प्रत्येक इनपुट के लिए केवल एक उपसेट सक्रिय हो। मेमोरी प्रतिबंध मोए मॉडल की स्केलेबिलिटी को संसाधन-सीमित डिवाइस पर सीमित कर सकते हैं।
- लोड संतुलन: गणना दक्षता को अनुकूलित करने के लिए, यह सुनिश्चित करना महत्वपूर्ण है कि विशेषज्ञों के बीच लोड संतुलित हो। यह आमतौर पर प्रशिक्षण के दौरान सहायक नुकसान और क्षमता कारक के सावधानीपूर्वक ट्यूनिंग के माध्यम से प्राप्त किया जाता है, जो प्रत्येक विशेषज्ञ को असाइन किए जा सकने वाले अधिकतम टोकन संख्या को निर्धारित करता है।
- संचार ओवरहेड: वितरित प्रशिक्षण और अनुमान सценारियों में, मोए मॉडल विशेषज्ञों के बीच सक्रियण और ग्रेडिएंट जानकारी के आदान-प्रदान के कारण अतिरिक्त संचार ओवरहेड पेश कर सकते हैं जो अलग-अलग डिवाइस या त्वरणकों पर निवास करते हैं। इस ओवरहेड को कम करने के लिए कुशल संचार रणनीतियों और हार्डवेयर-जागरूक मॉडल डिज़ाइन आवश्यक हैं।
इन चुनौतियों के बावजूद, मोए मॉडल के लाभों ने बड़े और अधिक सक्षम भाषा मॉडल को सक्षम करने में महत्वपूर्ण शोध प्रयासों को प्रेरित किया है।
उदाहरण: मिक्सट्रल 8x7B और जीएलएएम
भाषा मॉडल में मोए के व्यावहारिक अनुप्रयोग को दर्शाने के लिए, आइए दो उल्लेखनीय उदाहरणों पर विचार करें: मिक्सट्रल 8x7B और जीएलएएम।
मिक्सट्रल 8x7B मिस्ट्रल भाषा मॉडल का एक मोए संस्करण है, जिसे एंथ्रोपिक द्वारा विकसित किया गया है। यह आठ विशेषज्ञों से बना है, प्रत्येक में 7 बिलियन पैरामीटर हैं, जिसके परिणामस्वरूप कुल 56 बिलियन पैरामीटर हैं। हालांकि, अनुमान के दौरान, केवल दो विशेषज्ञ प्रति टोकन सक्रिय होते हैं, जिससे गणना लागत 14 बिलियन पैरामीटर घने मॉडल के बराबर हो जाती है, क्योंकि यह दो 7 बिलियन पैरामीटर मैट्रिक्स गुणा करता है।
मिक्सट्रल 8x7B ने प्रभावशाली प्रदर्शन प्रदर्शित किया है, 70 बिलियन पैरामीटर एलएलएमए मॉडल को पार करते हुए, जबकि बहुत तेज़ अनुमान समय प्रदान करता है। एक निर्देश-ट्यून किए गए संस्करण मिक्सट्रल-8x7B-इन्स्ट्रक्ट-v0.1 को भी जारी किया गया है, जो प्राकृतिक भाषा निर्देशों का पालन करने में इसकी क्षमताओं को और बढ़ाता है।
एक अन्य उल्लेखनीय उदाहरण जीएलएएम (गूगल भाषा मॉडल) है, जो गूगल द्वारा विकसित एक बड़े पैमाने पर मोए मॉडल है। जीएलएएम एक डिकोडर-ओनली ट्रांसफॉर्मर आर्किटेक्चर का उपयोग करता है और 1.6 ट्रिलियन टोकन डेटासेट पर प्रशिक्षित किया गया है। मॉडल कुछ शॉट और एक शॉट मूल्यांकन पर प्रभावशाली प्रदर्शन प्रदर्शित करता है, जीपीटी-3 की गुणवत्ता का मिलान करता है जबकि इसके प्रशिक्षण के लिए केवल एक-तिहाई ऊर्जा का उपयोग करता है।
जीएलएएम की सफलता इसकी कुशल मोए आर्किटेक्चर के लिए जिम्मेदार है, जिसने एक विशाल संख्या में पैरामीटर के साथ एक मॉडल को प्रशिक्षित करने की अनुमति दी जबकि उचित गणना आवश्यकताओं को बनाए रखा। मॉडल ने मोए मॉडल की क्षमता को भी प्रदर्शित किया है कि वे अपने घने समकक्षों की तुलना में अधिक ऊर्जा-कुशल और पर्यावरण अनुकूल हो सकते हैं।
ग्रोक-1 आर्किटेक्चर
ग्रोक-1 एक ट्रांसफॉर्मर-आधारित मोए मॉडल है जिसमें दक्षता और प्रदर्शन को अधिकतम करने के लिए एक अनोखी आर्किटेक्चर है। आइए इसकी मुख्य विशिष्टताओं पर गहराई से जाएं:
- पैरामीटर: 314 बिलियन पैरामीटर के साथ, ग्रोक-1 सबसे बड़ा खुला एलएलएम है। हालांकि, मोए आर्किटेक्चर के लिए धन्यवाद, केवल 25% वजन (लगभग 86 बिलियन पैरामीटर) किसी भी समय सक्रिय होते हैं, प्रसंस्करण क्षमताओं को बढ़ाते हैं।
- आर्किटेक्चर: ग्रोक-1 एक मिक्सचर-ऑफ-8-एक्सपर्ट्स आर्किटेक्चर का उपयोग करता है, प्रत्येक टोकन को अनुमान के दौरान दो विशेषज्ञों द्वारा संसाधित किया जाता है।
- परतें: मॉडल में 64 ट्रांसफॉर्मर परतें हैं, प्रत्येक में मल्टीहेड ध्यान तंत्र और घने ब्लॉक शामिल हैं।
- टोकनाइजेशन: ग्रोक-1 एक वाक्यांशपीस टोकनाइज़र का उपयोग 131,072 टोकन के शब्दावली आकार के साथ करता है।
- एम्बेडिंग और स्थितीय एन्कोडिंग: मॉडल में 6,144-आयामी एम्बेडिंग हैं और रोटरी स्थितीय एन्कोडिंग का उपयोग करता है, जो पारंपरिक निश्चित स्थितीय एन्कोडिंग की तुलना में डेटा की अधिक गतिशील व्याख्या की अनुमति देता है।
- ध्यान: ग्रोक-1 प्रश्नों के लिए 48 ध्यान सिर और मूल्यों के लिए 8 ध्यान सिर का उपयोग करता है, प्रत्येक का आकार 128 है।
- संदर्भ लंबाई: मॉडल 8,192 टोकन लंबाई के अनुक्रमों को संसाधित कर सकता है, बीएफ्लोट16 सटीकता का उपयोग करके कुशल गणना के लिए।
प्रदर्शन और कार्यान्वयन विवरण
ग्रोक-1 ने प्रभावशाली प्रदर्शन प्रदर्शित किया है, एलएलएएमा 2 70बी और मिक्सट्रल 8x7B को पार करते हुए 73% के एमएमएलयू स्कोर के साथ, विभिन्न परीक्षणों में इसकी दक्षता और सटीकता का प्रदर्शन किया है।
हालांकि, यह ध्यान देने योग्य है कि ग्रोक-1 को इसके विशाल आकार के कारण महत्वपूर्ण जीपीयू संसाधनों की आवश्यकता होती है। वर्तमान कार्यान्वयन में मोए परत का एक अकुशल कार्यान्वयन शामिल है ताकि कस्टम केर्नेल की आवश्यकता से बचा जा सके।
फिर भी, मॉडल एक्टिवेशन शार्डिंग और 8-बिट स्क्वांटाइजेशन का समर्थन करता है, जो प्रदर्शन को अनुकूलित करने और मेमोरी आवश्यकताओं को कम करने में मदद कर सकता है।
एक उल्लेखनीय कदम में, एक्सएआई ने ग्रोक-1 को एपाचे 2.0 लाइसेंस के तहत जारी किया है, इसके वजन और आर्किटेक्चर को वैश्विक समुदाय के लिए उपयोग और योगदान के लिए उपलब्ध कराया है।
ओपन-सोर्स रिलीज़ में एक जैक्स उदाहरण कोड रिपॉजिटरी शामिल है जो दिखाता है कि ग्रोक-1 मॉडल को कैसे लोड और चलाया जाए। उपयोगकर्ता टोरेंट क्लाइंट का उपयोग करके या सीधे हगिंग फेस हब के माध्यम से चेकपॉइंट वजन डाउनलोड कर सकते हैं, इस शक्तिशाली मॉडल तक आसान पहुंच प्रदान करते हैं।
भाषा मॉडल में मixture-ऑफ-एक्सपर्ट्स का भविष्य
जैसा कि बड़े और अधिक सक्षम भाषा मॉडल की मांग जारी है, मोए तकनीकों को अपनाने की संभावना और भी बढ़ जाएगी। जारी शोध प्रयासों का उद्देश्य शेष चुनौतियों को संबोधित करना है, जैसे प्रशिक्षण स्थिरता में सुधार, फ़ाइनट्यूनिंग के दौरान ओवरफिटिंग को कम करना, और मेमोरी और संचार आवश्यकताओं को अनुकूलित करना।
एक आशाजनक दिशा हायरार्किकल मोए आर्किटेक्चर का अन्वेषण है, जहां प्रत्येक विशेषज्ञ स्वयं कई उप-विशेषज्ञों से बना होता है। यह दृष्टिकोण बड़े मॉडल की अभिव्यक्ति शक्ति को बनाए रखते हुए और भी बड़े पैमाने पर और गणनात्मक दक्षता की अनुमति दे सकता है।
इसके अलावा, मोए मॉडल के लिए अनुकूलित हार्डवेयर और सॉफ्टवेयर सिस्टम का विकास एक सक्रिय शोध क्षेत्र है। मोए मॉडल के स्पार्स और सशर्त गणना पैटर्न को कुशलता से संभालने के लिए डिज़ाइन किए गए विशेषज्ञ त्वरणक और वितरित प्रशिक्षण फ्रेमवर्क मॉडल के प्रदर्शन और स्केलेबिलिटी को और बढ़ा सकते हैं।
इसके अलावा, मोए तकनीकों को भाषा मॉडलिंग में अन्य प्रगति के साथ एकीकृत करना, जैसे कि स्पार्स ध्यान तंत्र, कुशल टोकनाइजेशन रणनीतियाँ, और मल्टीमॉडल प्रतिनिधित्व, और भी शक्तिशाली और बहुमुखी भाषा मॉडल का नेतृत्व कर सकता है जो विभिन्न कार्यों को संभाल सकते हैं।
निष्कर्ष
मixture-ऑफ-एक्सपर्ट्स तकनीक बड़े और अधिक सक्षम भाषा मॉडल की खोज में एक शक्तिशाली उपकरण के रूप में उभरी है। प्रत्येक इनपुट के लिए चुनिंदा रूप से विशेषज्ञों को सक्रिय करके, मोए मॉडल घने मॉडल की अभिव्यक्ति शक्ति प्राप्त कर सकते हैं जबकि काफी कम गणना की आवश्यकता होती है।
जैसा कि प्राकृतिक भाषा प्रसंस्करण क्षेत्र आगे बढ़ता है, मोए तकनीकों को अपनाने की संभावना और भी बढ़ जाएगी। मोए को अन्य मॉडल आर्किटेक्चर, प्रशिक्षण तकनीकों और हार्डवेयर अनुकूलन के साथ संयोजित करके, हम और भी शक्तिशाली और बहुमुखी भाषा मॉडल की उम्मीद कर सकते हैं जो मानवों के साथ प्राकृतिक और सहज तरीके से संवाद कर सकते हैं।
рдореИрдВ рдкрд┐рдЫрд▓реЗ рдкрд╛рдВрдЪ рд╡рд░реНрд╖реЛрдВ рд╕реЗ рдорд╢реАрди рд▓рд░реНрдирд┐рдВрдЧ рдФрд░ рдбреАрдк рд▓рд░реНрдирд┐рдВрдЧ рдХреА рдЖрдХрд░реНрд╖рдХ рджреБрдирд┐рдпрд╛ рдореЗрдВ рдЦреБрдж рдХреЛ рдбреВрдмрд╛ рд░рд╣рд╛ рд╣реВрдВред рдореЗрд░рд╛ рдЬреБрдиреВрди рдФрд░ рд╡рд┐рд╢реЗрд╖рдЬреНрдЮрддрд╛ рдиреЗ рдореБрдЭреЗ 50 рд╕реЗ рдЕрдзрд┐рдХ рд╡рд┐рд╡рд┐рдз рд╕реЙрдлреНрдЯрд╡реЗрдпрд░ рдЗрдВрдЬреАрдирд┐рдпрд░рд┐рдВрдЧ рдкрд░рд┐рдпреЛрдЬрдирд╛рдУрдВ рдореЗрдВ рдпреЛрдЧрджрд╛рди рджреЗрдиреЗ рдХреЗ рд▓рд┐рдП рдкреНрд░реЗрд░рд┐рдд рдХрд┐рдпрд╛ рд╣реИ, рдЬрд┐рд╕рдореЗрдВ рд╡рд┐рд╢реЗрд╖ рд░реВрдк рд╕реЗ рдПрдЖрдИ/рдПрдордПрд▓ рдкрд░ рдзреНрдпрд╛рди рдХреЗрдВрджреНрд░рд┐рдд рдХрд┐рдпрд╛ рдЧрдпрд╛ рд╣реИред рдореЗрд░реА рд▓рдЧрд╛рддрд╛рд░ рдЬрд┐рдЬреНрдЮрд╛рд╕рд╛ рдиреЗ рдореБрдЭреЗ рдкреНрд░рд╛рдХреГрддрд┐рдХ рднрд╛рд╖рд╛ рдкреНрд░рд╕рдВрд╕реНрдХрд░рдг рдХреА рдУрд░ рдЖрдХрд░реНрд╖рд┐рдд рдХрд┐рдпрд╛ рд╣реИ, рдЬреЛ рдПрдХ рдХреНрд╖реЗрддреНрд░ рд╣реИ рдЬрд┐рд╕реЗ рдореИрдВ рдЖрдЧреЗ рдЕрдиреНрд╡реЗрд╖рдг рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдЙрддреНрд╕реБрдХ рд╣реВрдВред
You may like
-


рдЖрдзреБрдирд┐рдХ рдпреБрдЧ рдореЗрдВ рдЕрдзрд┐рдХрд╛рдВрд╢ рдореЙрдбрд░реНрди рдРрдкреНрд╕ рдХреНрдпреЛрдВ рдмреЗрдХрд╛рд░ рд╣реЛ рдЬрд╛рдПрдВрдЧреЗ
-


Mistral AI рдиреЗ $830 рдорд┐рд▓рд┐рдпрди рдХрд╛ рдЛрдг рдкреНрд░рд╛рдкреНрдд рдХрд┐рдпрд╛ рдкреЗрд░рд┐рд╕ рдбреЗрдЯрд╛ рд╕реЗрдВрдЯрд░ рдмрдирд╛рдиреЗ рдХреЗ рд▓рд┐рдП
-


рдЬреЗрдорд┐рдиреА 3.1 рдкреНрд░реЛ рд╣рд┐рдЯреНрд╕ рд░рд┐рдХреЙрд░реНрдб рд░реАрдЬрдирд┐рдВрдЧ рдЧреЗрдиреНрд╕
-


рдорд╛рдирд╡ рдХреЛрдб 2020 рдиреЗ рд╡рд╛рдЗрдм-рдХреЛрдбреЗрдб рдПрдЬреЗрдВрдЯреЛрдВ рдХреЛ рдПрдЬреЗрдВрдЯрд┐рдХ рдкрд░реАрдХреНрд╖рдг рдореЗрдВ рд╣рд░рд╛рдпрд╛
-
рдЧреВрдЧрд▓ рдиреЗ рдЬреЗрдорд┐рдиреА 3 рдкреНрд░реЛ рдХрд╛ рдЕрдирд╛рд╡рд░рдг рдХрд┐рдпрд╛ рдЬрд┐рд╕рдореЗрдВ рдмреЗрдВрдЪрдорд╛рд░реНрдХ рддреЛрдбрд╝рдиреЗ рд╡рд╛рд▓рд╛ рдкреНрд░рджрд░реНрд╢рди рд╣реИ
-


рдореЛрдЗ рд░рд┐рд╡реЛрд▓реНрдпреВрд╢рди: рдПрдбрд╡рд╛рдВрд╕реНрдб рд░рд╛рдЙрдЯрд┐рдВрдЧ рдФрд░ рд╕реНрдкреЗрд╢рд┐рдпрд▓рд╛рдЗрдЬреЗрд╢рди рдХреИрд╕реЗ рдПрд▓рдПрд▓рдПрдо рдХреЛ рдмрджрд▓ рд░рд╣реЗ рд╣реИрдВ

