Connect with us

рдоixture-рдСрдл-рдПрдХреНрд╕рдкрд░реНрдЯреНрд╕ рдХрд╛ рдЙрджрдп рдХреБрд╢рд▓ рдмрдбрд╝реЗ рднрд╛рд╖рд╛ рдореЙрдбрд▓ рдХреЗ рд▓рд┐рдП

рдХреГрддреНрд░рд┐рдо рдмреБрджреНрдзрд┐рдорддреНрддрд╛

рдоixture-рдСрдл-рдПрдХреНрд╕рдкрд░реНрдЯреНрд╕ рдХрд╛ рдЙрджрдп рдХреБрд╢рд▓ рдмрдбрд╝реЗ рднрд╛рд╖рд╛ рдореЙрдбрд▓ рдХреЗ рд▓рд┐рдП

mm
Mixture of Experts Grok Mistral

प्राकृतिक भाषा प्रसंस्करण (एनएलपी) की दुनिया में, बड़े और अधिक सक्षम भाषा मॉडल बनाने की खोज कई हालिया प्रगति के पीछे एक प्रेरक शक्ति रही है। हालांकि, जैसे-जैसे ये मॉडल आकार में बढ़ते हैं, प्रशिक्षण और अनुमान के लिए गणना आवश्यकताएं अधिक मांग वाली होती जाती हैं, जो उपलब्ध हार्डवेयर संसाधनों की सीमाओं के खिलाफ दबाव डालती हैं।

मixture-ऑफ-एक्सपर्ट्स (मोए) का परिचय दें, एक तकनीक जो इस गणना बोझ को कम करने का वादा करती है और बड़े और अधिक शक्तिशाली भाषा मॉडलों को प्रशिक्षित करने की अनुमति देती है। नीचे, हम मोए, इसकी उत्पत्ति, आंतरिक कार्य और ट्रांसफॉर्मर-आधारित भाषा मॉडल में इसके अनुप्रयोगों पर चर्चा करेंगे।

मixture-ऑफ-एक्सपर्ट्स की उत्पत्ति

मixture-ऑफ-एक्सपर्ट्स (मोए) की अवधारणा को 1990 के दशक की शुरुआत में वापस देखा जा सकता है जब शोधकर्ताओं ने सशर्त गणना के विचार का अन्वेषण किया, जहां तंत्रिका नेटवर्क के हिस्से इनपुट डेटा के आधार पर चुनिंदा रूप से सक्रिय होते हैं। इस क्षेत्र में अग्रणी कार्यों में से एक जैकब्स एट अल द्वारा 1991 में “एडाप्टिव मिक्सचर ऑफ लोकल एक्सपर्ट्स” पत्र था, जिसने एक पर्यवेक्षित लर्निंग फ्रेमवर्क का प्रस्ताव किया था। एक तंत्रिका नेटवर्क के लिए, प्रत्येक एक अलग इनपुट स्थान क्षेत्र में विशेषज्ञता रखता है।

मोए के पीछे का मूल विचार यह है कि कई “विशेषज्ञ” नेटवर्क हों, प्रत्येक इनपुट डेटा के एक उपसेट को संसाधित करने के लिए जिम्मेदार है। एक गेटिंग तंत्र, जो आमतौर पर स्वयं एक तंत्रिका नेटवर्क होता है, यह निर्धारित करता है कि कौन से विशेषज्ञ को एक दिए गए इनपुट को संसाधित करना चाहिए। यह दृष्टिकोण मॉडल को अपने गणना संसाधनों को अधिक कुशलता से आवंटित करने की अनुमति देता है क्योंकि यह प्रत्येक इनपुट के लिए केवल प्रासंगिक विशेषज्ञों को सक्रिय करता है, पूरे मॉडल क्षमता को प्रत्येक इनपुट के लिए नियोजित करने के बजाय।

वर्षों से, विभिन्न शोधकर्ताओं ने सशर्त गणना के विचार का अन्वेषण और विस्तार किया, जिससे हायरार्किकल मोए, सशर्त गणना के लिए कम रैंक अनुमान, और स्टोकेस्टिक न्यूरॉन्स और हार्ड-थ्रेशोल्ड एक्टिवेशन फ़ंक्शन के माध्यम से ग्रेडिएंट्स का अनुमान लगाने की तकनीकों जैसे विकास हुए।

ट्रांसफॉर्मर में मixture-ऑफ-एक्सपर्ट्स

рдоixture рдСрдл рдПрдХреНрд╕рдкрд░реНрдЯреНрд╕

मixture ऑफ एक्सपर्ट्स

जबकि मोए का विचार दशकों से आसपास है, इसका ट्रांसफॉर्मर-आधारित भाषा मॉडल में अनुप्रयोग अपेक्षाकृत हाल का है। ट्रांसफॉर्मर, जो राज्य-ऑफ-द-आर्ट भाषा मॉडल के लिए डी फैक्टो मानक बन गए हैं, कई परतों से बने होते हैं, प्रत्येक में एक स्व-ध्यान तंत्र और एक फीड-फॉरवर्ड न्यूरल नेटवर्क (एफएफएन) होता है।

ट्रांसफॉर्मर में मोए का अनुप्रयोग करने में मुख्य नवाचार घने एफएफएन परतों को घने मोए परतों से बदलना है, प्रत्येक में कई विशेषज्ञ एफएफएन और एक गेटिंग तंत्र शामिल है। गेटिंग तंत्र यह निर्धारित करता है कि प्रत्येक इनपुट टोकन को कौन से विशेषज्ञ संसाधित करने चाहिए, मॉडल को चुनिंदा रूप से केवल एक इनपुट अनुक्रम के लिए एक उपसेट विशेषज्ञों को सक्रिय करने की अनुमति देता है।

मोए को ट्रांसफॉर्मर में लागू करने वाले पहले कार्यों में से एक शेज़र एट अल द्वारा 2017 में “आउट्रेजस लार्ज न्यूरल नेटवर्क: द स्पार्सली-गेटेड मिक्सचर-ऑफ-एक्सपर्ट्स लेयर” पत्र था। इस कार्य ने एक स्पार्सली-गेटेड मोए परत की अवधारणा पेश की, जिसने गेटिंग तंत्र में स्पार्सिटी और शोर जोड़ा, यह सुनिश्चित करते हुए कि प्रत्येक इनपुट के लिए केवल एक उपसेट विशेषज्ञ सक्रिय हों।

इसके बाद, कई अन्य कार्यों ने ट्रांसफॉर्मर में मोए के अनुप्रयोग को आगे बढ़ाया, जैसे कि प्रशिक्षण अस्थिरता, लोड संतुलन, और कुशल अनुमान जैसी चुनौतियों का सामना किया। उल्लेखनीय उदाहरणों में शामिल हैं स्विच ट्रांसफॉर्मर (फेडस एट अल, 2021), एसटी-मोए (ज़ोफ एट अल, 2022), और जीएलएएम (डू एट अल, 2022)।

भाषा मॉडल के लिए मixture-ऑफ-एक्सपर्ट्स के लाभ

भाषा मॉडल में मोए का नियोजन करने का प्राथमिक लाभ यह है कि मॉडल के आकार को बढ़ाते समय अनुमान के दौरान एक अपेक्षाकृत स्थिर गणना लागत बनाए रखने की क्षमता है। प्रत्येक इनपुट टोकन के लिए केवल एक उपसेट विशेषज्ञों को चुनिंदा रूप से सक्रिय करके, मोए मॉडल बहुत बड़े घने मॉडल की अभिव्यक्ति शक्ति प्राप्त कर सकते हैं जबकि काफी कम गणना की आवश्यकता होती है।

उदाहरण के लिए, एक भाषा मॉडल पर विचार करें जिसमें 7 बिलियन पैरामीटर वाली घनी एफएफएन परत है। यदि हम इस परत को 7 बिलियन पैरामीटर वाले आठ विशेषज्ञों के साथ मोए परत से बदल दें, तो कुल पैरामीटर संख्या 56 बिलियन हो जाती है। हालांकि, अनुमान के दौरान, यदि हम प्रति टोकन केवल दो विशेषज्ञों को सक्रिय करते हैं, तो गणना लागत 14 बिलियन पैरामीटर घने मॉडल के बराबर होती है, क्योंकि यह दो 7 बिलियन पैरामीटर मैट्रिक्स गुणा करता है।

यह अनुमान के दौरान गणना की दक्षता विशेष रूप से मूल्यवान है जहां संसाधन सीमित हैं, जैसे मोबाइल डिवाइस या एज कंप्यूटिंग वातावरण। इसके अलावा, प्रशिक्षण के दौरान कम गणना आवश्यकता महत्वपूर्ण ऊर्जा बचत और कम कार्बन फुटप्रिंट का परिणाम हो सकती है, जो टिकाऊ एआई प्रथाओं पर बढ़ती जोर के साथ संरेखित है।

चुनौतियाँ और विचार

मोए मॉडल प्रलोभनक लाभ प्रदान करते हैं, उनके अपनाने और तैनाती में भी कई चुनौतियाँ और विचार हैं:

  1. प्रशिक्षण अस्थिरता: मोए मॉडल अपने घने समकक्षों की तुलना में प्रशिक्षण अस्थिरता के लिए अधिक प्रवण होते हैं। यह मुद्दा विशेषज्ञ सक्रियण की स्पार्स और सशर्त प्रकृति से उत्पन्न होता है, जो ग्रेडिएंट प्रोपेगेशन और अभिसरण में चुनौतियाँ पैदा कर सकता है। तकनीकों जैसे राउटर जेड-लॉस (ज़ोफ एट अल, 2022) को इन अस्थिरताओं को कम करने के लिए प्रस्तावित किया गया है, लेकिन आगे शोध की अभी भी आवश्यकता है।
  2. फ़ाइनट्यूनिंग और ओवरफिटिंग: मोए मॉडल फ़ाइनट्यूनिंग के दौरान अधिक आसानी से ओवरफिट होते हैं, विशेष रूप से जब डाउनस्ट्रीम कार्य में एक अपेक्षाकृत छोटा डेटासेट होता है। यह व्यवहार मोए मॉडल की बढ़ी हुई क्षमता और स्पार्सिटी के कारण होता है, जो प्रशिक्षण डेटा पर अधिक विशेषज्ञता का कारण बन सकता है। इस मुद्दे को कम करने के लिए सावधान नियमितीकरण और फ़ाइनट्यूनिंग रणनीतियों की आवश्यकता है।
  3. मेमोरी आवश्यकताएँ: जबकि मोए मॉडल अनुमान के दौरान गणना लागत को कम कर सकते हैं, वे अक्सर समान आकार के घने मॉडल की तुलना में उच्च मेमोरी आवश्यकताओं के साथ आते हैं। यह इसलिए है क्योंकि सभी विशेषज्ञ भारों को मेमोरी में लोड किया जाना चाहिए, भले ही प्रत्येक इनपुट के लिए केवल एक उपसेट सक्रिय हो। मेमोरी प्रतिबंध मोए मॉडल की स्केलेबिलिटी को संसाधन-सीमित डिवाइस पर सीमित कर सकते हैं।
  4. लोड संतुलन: गणना दक्षता को अनुकूलित करने के लिए, यह सुनिश्चित करना महत्वपूर्ण है कि विशेषज्ञों के बीच लोड संतुलित हो। यह आमतौर पर प्रशिक्षण के दौरान सहायक नुकसान और क्षमता कारक के सावधानीपूर्वक ट्यूनिंग के माध्यम से प्राप्त किया जाता है, जो प्रत्येक विशेषज्ञ को असाइन किए जा सकने वाले अधिकतम टोकन संख्या को निर्धारित करता है।
  5. संचार ओवरहेड: वितरित प्रशिक्षण और अनुमान सценारियों में, मोए मॉडल विशेषज्ञों के बीच सक्रियण और ग्रेडिएंट जानकारी के आदान-प्रदान के कारण अतिरिक्त संचार ओवरहेड पेश कर सकते हैं जो अलग-अलग डिवाइस या त्वरणकों पर निवास करते हैं। इस ओवरहेड को कम करने के लिए कुशल संचार रणनीतियों और हार्डवेयर-जागरूक मॉडल डिज़ाइन आवश्यक हैं।

इन चुनौतियों के बावजूद, मोए मॉडल के लाभों ने बड़े और अधिक सक्षम भाषा मॉडल को सक्षम करने में महत्वपूर्ण शोध प्रयासों को प्रेरित किया है।

उदाहरण: मिक्सट्रल 8x7B और जीएलएएम

भाषा मॉडल में मोए के व्यावहारिक अनुप्रयोग को दर्शाने के लिए, आइए दो उल्लेखनीय उदाहरणों पर विचार करें: मिक्सट्रल 8x7B और जीएलएएम।

मिक्सट्रल 8x7B मिस्ट्रल भाषा मॉडल का एक मोए संस्करण है, जिसे एंथ्रोपिक द्वारा विकसित किया गया है। यह आठ विशेषज्ञों से बना है, प्रत्येक में 7 बिलियन पैरामीटर हैं, जिसके परिणामस्वरूप कुल 56 बिलियन पैरामीटर हैं। हालांकि, अनुमान के दौरान, केवल दो विशेषज्ञ प्रति टोकन सक्रिय होते हैं, जिससे गणना लागत 14 बिलियन पैरामीटर घने मॉडल के बराबर हो जाती है, क्योंकि यह दो 7 बिलियन पैरामीटर मैट्रिक्स गुणा करता है।

मिक्सट्रल 8x7B ने प्रभावशाली प्रदर्शन प्रदर्शित किया है, 70 बिलियन पैरामीटर एलएलएमए मॉडल को पार करते हुए, जबकि बहुत तेज़ अनुमान समय प्रदान करता है। एक निर्देश-ट्यून किए गए संस्करण मिक्सट्रल-8x7B-इन्स्ट्रक्ट-v0.1 को भी जारी किया गया है, जो प्राकृतिक भाषा निर्देशों का पालन करने में इसकी क्षमताओं को और बढ़ाता है।

एक अन्य उल्लेखनीय उदाहरण जीएलएएम (गूगल भाषा मॉडल) है, जो गूगल द्वारा विकसित एक बड़े पैमाने पर मोए मॉडल है। जीएलएएम एक डिकोडर-ओनली ट्रांसफॉर्मर आर्किटेक्चर का उपयोग करता है और 1.6 ट्रिलियन टोकन डेटासेट पर प्रशिक्षित किया गया है। मॉडल कुछ शॉट और एक शॉट मूल्यांकन पर प्रभावशाली प्रदर्शन प्रदर्शित करता है, जीपीटी-3 की गुणवत्ता का मिलान करता है जबकि इसके प्रशिक्षण के लिए केवल एक-तिहाई ऊर्जा का उपयोग करता है।

जीएलएएम की सफलता इसकी कुशल मोए आर्किटेक्चर के लिए जिम्मेदार है, जिसने एक विशाल संख्या में पैरामीटर के साथ एक मॉडल को प्रशिक्षित करने की अनुमति दी जबकि उचित गणना आवश्यकताओं को बनाए रखा। मॉडल ने मोए मॉडल की क्षमता को भी प्रदर्शित किया है कि वे अपने घने समकक्षों की तुलना में अधिक ऊर्जा-कुशल और पर्यावरण अनुकूल हो सकते हैं।

ग्रोक-1 आर्किटेक्चर

ग्रोक मिक्सचर ऑफ एक्सपर्ट

ग्रोक मिक्सचर ऑफ एक्सपर्ट

ग्रोक-1 एक ट्रांसफॉर्मर-आधारित मोए मॉडल है जिसमें दक्षता और प्रदर्शन को अधिकतम करने के लिए एक अनोखी आर्किटेक्चर है। आइए इसकी मुख्य विशिष्टताओं पर गहराई से जाएं:

  1. पैरामीटर: 314 बिलियन पैरामीटर के साथ, ग्रोक-1 सबसे बड़ा खुला एलएलएम है। हालांकि, मोए आर्किटेक्चर के लिए धन्यवाद, केवल 25% वजन (लगभग 86 बिलियन पैरामीटर) किसी भी समय सक्रिय होते हैं, प्रसंस्करण क्षमताओं को बढ़ाते हैं।
  2. आर्किटेक्चर: ग्रोक-1 एक मिक्सचर-ऑफ-8-एक्सपर्ट्स आर्किटेक्चर का उपयोग करता है, प्रत्येक टोकन को अनुमान के दौरान दो विशेषज्ञों द्वारा संसाधित किया जाता है।
  3. परतें: मॉडल में 64 ट्रांसफॉर्मर परतें हैं, प्रत्येक में मल्टीहेड ध्यान तंत्र और घने ब्लॉक शामिल हैं।
  4. टोकनाइजेशन: ग्रोक-1 एक वाक्यांशपीस टोकनाइज़र का उपयोग 131,072 टोकन के शब्दावली आकार के साथ करता है।
  5. एम्बेडिंग और स्थितीय एन्कोडिंग: मॉडल में 6,144-आयामी एम्बेडिंग हैं और रोटरी स्थितीय एन्कोडिंग का उपयोग करता है, जो पारंपरिक निश्चित स्थितीय एन्कोडिंग की तुलना में डेटा की अधिक गतिशील व्याख्या की अनुमति देता है।
  6. ध्यान: ग्रोक-1 प्रश्नों के लिए 48 ध्यान सिर और मूल्यों के लिए 8 ध्यान सिर का उपयोग करता है, प्रत्येक का आकार 128 है।
  7. संदर्भ लंबाई: मॉडल 8,192 टोकन लंबाई के अनुक्रमों को संसाधित कर सकता है, बीएफ्लोट16 सटीकता का उपयोग करके कुशल गणना के लिए।

प्रदर्शन और कार्यान्वयन विवरण

ग्रोक-1 ने प्रभावशाली प्रदर्शन प्रदर्शित किया है, एलएलएएमा 2 70बी और मिक्सट्रल 8x7B को पार करते हुए 73% के एमएमएलयू स्कोर के साथ, विभिन्न परीक्षणों में इसकी दक्षता और सटीकता का प्रदर्शन किया है।

हालांकि, यह ध्यान देने योग्य है कि ग्रोक-1 को इसके विशाल आकार के कारण महत्वपूर्ण जीपीयू संसाधनों की आवश्यकता होती है। वर्तमान कार्यान्वयन में मोए परत का एक अकुशल कार्यान्वयन शामिल है ताकि कस्टम केर्नेल की आवश्यकता से बचा जा सके।

फिर भी, मॉडल एक्टिवेशन शार्डिंग और 8-बिट स्क्वांटाइजेशन का समर्थन करता है, जो प्रदर्शन को अनुकूलित करने और मेमोरी आवश्यकताओं को कम करने में मदद कर सकता है।

एक उल्लेखनीय कदम में, एक्सएआई ने ग्रोक-1 को एपाचे 2.0 लाइसेंस के तहत जारी किया है, इसके वजन और आर्किटेक्चर को वैश्विक समुदाय के लिए उपयोग और योगदान के लिए उपलब्ध कराया है।

ओपन-सोर्स रिलीज़ में एक जैक्स उदाहरण कोड रिपॉजिटरी शामिल है जो दिखाता है कि ग्रोक-1 मॉडल को कैसे लोड और चलाया जाए। उपयोगकर्ता टोरेंट क्लाइंट का उपयोग करके या सीधे हगिंग फेस हब के माध्यम से चेकपॉइंट वजन डाउनलोड कर सकते हैं, इस शक्तिशाली मॉडल तक आसान पहुंच प्रदान करते हैं।

भाषा मॉडल में मixture-ऑफ-एक्सपर्ट्स का भविष्य

जैसा कि बड़े और अधिक सक्षम भाषा मॉडल की मांग जारी है, मोए तकनीकों को अपनाने की संभावना और भी बढ़ जाएगी। जारी शोध प्रयासों का उद्देश्य शेष चुनौतियों को संबोधित करना है, जैसे प्रशिक्षण स्थिरता में सुधार, फ़ाइनट्यूनिंग के दौरान ओवरफिटिंग को कम करना, और मेमोरी और संचार आवश्यकताओं को अनुकूलित करना।

एक आशाजनक दिशा हायरार्किकल मोए आर्किटेक्चर का अन्वेषण है, जहां प्रत्येक विशेषज्ञ स्वयं कई उप-विशेषज्ञों से बना होता है। यह दृष्टिकोण बड़े मॉडल की अभिव्यक्ति शक्ति को बनाए रखते हुए और भी बड़े पैमाने पर और गणनात्मक दक्षता की अनुमति दे सकता है।

इसके अलावा, मोए मॉडल के लिए अनुकूलित हार्डवेयर और सॉफ्टवेयर सिस्टम का विकास एक सक्रिय शोध क्षेत्र है। मोए मॉडल के स्पार्स और सशर्त गणना पैटर्न को कुशलता से संभालने के लिए डिज़ाइन किए गए विशेषज्ञ त्वरणक और वितरित प्रशिक्षण फ्रेमवर्क मॉडल के प्रदर्शन और स्केलेबिलिटी को और बढ़ा सकते हैं।

इसके अलावा, मोए तकनीकों को भाषा मॉडलिंग में अन्य प्रगति के साथ एकीकृत करना, जैसे कि स्पार्स ध्यान तंत्र, कुशल टोकनाइजेशन रणनीतियाँ, और मल्टीमॉडल प्रतिनिधित्व, और भी शक्तिशाली और बहुमुखी भाषा मॉडल का नेतृत्व कर सकता है जो विभिन्न कार्यों को संभाल सकते हैं।

निष्कर्ष

मixture-ऑफ-एक्सपर्ट्स तकनीक बड़े और अधिक सक्षम भाषा मॉडल की खोज में एक शक्तिशाली उपकरण के रूप में उभरी है। प्रत्येक इनपुट के लिए चुनिंदा रूप से विशेषज्ञों को सक्रिय करके, मोए मॉडल घने मॉडल की अभिव्यक्ति शक्ति प्राप्त कर सकते हैं जबकि काफी कम गणना की आवश्यकता होती है।

जैसा कि प्राकृतिक भाषा प्रसंस्करण क्षेत्र आगे बढ़ता है, मोए तकनीकों को अपनाने की संभावना और भी बढ़ जाएगी। मोए को अन्य मॉडल आर्किटेक्चर, प्रशिक्षण तकनीकों और हार्डवेयर अनुकूलन के साथ संयोजित करके, हम और भी शक्तिशाली और बहुमुखी भाषा मॉडल की उम्मीद कर सकते हैं जो मानवों के साथ प्राकृतिक और सहज तरीके से संवाद कर सकते हैं।

рдореИрдВ рдкрд┐рдЫрд▓реЗ рдкрд╛рдВрдЪ рд╡рд░реНрд╖реЛрдВ рд╕реЗ рдорд╢реАрди рд▓рд░реНрдирд┐рдВрдЧ рдФрд░ рдбреАрдк рд▓рд░реНрдирд┐рдВрдЧ рдХреА рдЖрдХрд░реНрд╖рдХ рджреБрдирд┐рдпрд╛ рдореЗрдВ рдЦреБрдж рдХреЛ рдбреВрдмрд╛ рд░рд╣рд╛ рд╣реВрдВред рдореЗрд░рд╛ рдЬреБрдиреВрди рдФрд░ рд╡рд┐рд╢реЗрд╖рдЬреНрдЮрддрд╛ рдиреЗ рдореБрдЭреЗ 50 рд╕реЗ рдЕрдзрд┐рдХ рд╡рд┐рд╡рд┐рдз рд╕реЙрдлреНрдЯрд╡реЗрдпрд░ рдЗрдВрдЬреАрдирд┐рдпрд░рд┐рдВрдЧ рдкрд░рд┐рдпреЛрдЬрдирд╛рдУрдВ рдореЗрдВ рдпреЛрдЧрджрд╛рди рджреЗрдиреЗ рдХреЗ рд▓рд┐рдП рдкреНрд░реЗрд░рд┐рдд рдХрд┐рдпрд╛ рд╣реИ, рдЬрд┐рд╕рдореЗрдВ рд╡рд┐рд╢реЗрд╖ рд░реВрдк рд╕реЗ рдПрдЖрдИ/рдПрдордПрд▓ рдкрд░ рдзреНрдпрд╛рди рдХреЗрдВрджреНрд░рд┐рдд рдХрд┐рдпрд╛ рдЧрдпрд╛ рд╣реИред рдореЗрд░реА рд▓рдЧрд╛рддрд╛рд░ рдЬрд┐рдЬреНрдЮрд╛рд╕рд╛ рдиреЗ рдореБрдЭреЗ рдкреНрд░рд╛рдХреГрддрд┐рдХ рднрд╛рд╖рд╛ рдкреНрд░рд╕рдВрд╕реНрдХрд░рдг рдХреА рдУрд░ рдЖрдХрд░реНрд╖рд┐рдд рдХрд┐рдпрд╛ рд╣реИ, рдЬреЛ рдПрдХ рдХреНрд╖реЗрддреНрд░ рд╣реИ рдЬрд┐рд╕реЗ рдореИрдВ рдЖрдЧреЗ рдЕрдиреНрд╡реЗрд╖рдг рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдЙрддреНрд╕реБрдХ рд╣реВрдВред

рд╡рд┐рдЬреНрдЮрд╛рдкрди рдкреНрд░рдХрдЯреАрдХрд░рдг: Unite.AI рд╕рдЯреАрдХ рдЬрд╛рдирдХрд╛рд░реА рдФрд░ рд╕рдорд╛рдЪрд╛рд░ рдкреНрд░рджрд╛рди рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдХрдареЛрд░ рд╕рдВрдкрд╛рджрдХреАрдп рдорд╛рдирдХреЛрдВ рдХреЗ рдкреНрд░рддрд┐ рдкреНрд░рддрд┐рдмрджреНрдз рд╣реИред рдЬрдм рдЖрдк рдЙрди рдЙрддреНрдкрд╛рджреЛрдВ рдХреЗ рд▓рд┐рдВрдХ рдкрд░ рдХреНрд▓рд┐рдХ рдХрд░рддреЗ рд╣реИрдВ рдЬрд┐рдирдХреА рд╣рдордиреЗ рд╕рдореАрдХреНрд╖рд╛ рдХреА рд╣реИ, рддреЛ рд╣рдореЗрдВ рдореБрдЖрд╡рдЬрд╛ рдорд┐рд▓ рд╕рдХрддрд╛ рд╣реИред