рдХреГрддреНрд░рд┐рдо рдмреБрджреНрдзрд┐рдорддреНрддрд╛
LoRa, QLoRA рдФрд░ QA-LoRA: рд▓рд╛рд░реНрдЬ рд▓реИрдВрдЧреНрд╡реЗрдЬ рдореЙрдбрд▓реНрд╕ рдореЗрдВ рд▓реЛ-рд░реИрдВрдХ рдореИрдЯреНрд░рд┐рдХреНрд╕ рдлреИрдХреНрдЯрд░рд╛рдЗрдЬреЗрд╢рди рдХреЗ рдорд╛рдзреНрдпрдо рд╕реЗ рдХреБрд╢рд▓ рдЕрдиреБрдХреВрд▓рди

लार्ज लैंग्वेज मॉडल्स (LLMs) ने एक अनोखी निचे बनाई है, जो मानव-जैसे पाठ को समझने और उत्पन्न करने में असाधारण क्षमताएं प्रदान करते हैं। LLMs की शक्ति उनके विशाल आकार में निहित है, जिसमें अक्सर अरबों पैरामीटर होते हैं। जबकि यह विशाल आकार उनके प्रदर्शन को बढ़ाता है, यह समानांतर रूप से विशिष्ट कार्यों या डोमेन के लिए मॉडल अनुकूलन के लिए चुनौतियों को भी जन्म देता है। LLMs के पारंपरिक प्रबंधन मार्ग, जैसे कि सभी पैरामीटर को फाइन-ट्यून करना, एक भारी गणनात्मक और वित्तीय बोझ प्रस्तुत करते हैं, जो उनके व्यापक अपनाने में एक महत्वपूर्ण बाधा के रूप में कार्य करता है।
एक पिछले लेख में, हमने लार्ज लैंग्वेज मॉडल्स (LLMs) को विशिष्ट आवश्यकताओं के अनुसार अनुकूलित करने के लिए फाइन-ट्यूनिंग पर गहराई से चर्चा की। हमने विभिन्न फाइन-ट्यूनिंग विधियों का अन्वेषण किया, जैसे कि निर्देश-आधारित फाइन-ट्यूनिंग, एकल-कार्य फाइन-ट्यूनिंग, और पैरामीटर कुशल फाइन-ट्यूनिंग (PEFT), प्रत्येक की अपनी विशिष्ट दृष्टिकोण के साथ LLMs को विभिन्न कार्यों के लिए अनुकूलित करने के लिए। चर्चा के केंद्र में ट्रांसफॉर्मर आर्किटेक्चर था, जो LLMs की रीढ़ है, और फाइन-ट्यूनिंग के दौरान विशाल पैरामीटर संख्या के कारण उत्पन्न होने वाली गणनात्मक और मेमोरी मांगों की चुनौतियाँ थीं।
उपरोक्त छवि विभिन्न बड़े भाषा मॉडल्स के पैरामीटर संख्या के अनुसार उनके आकार को दर्शाती है। विशेष रूप से, पाम, ब्लूम, आदि।
इस वर्ष के रूप में, बड़े मॉडल्स को और भी बड़ा बनाने के लिए कई प्रगति हुई हैं। हालांकि, मानक प्रणालियों पर इतने बड़े मॉडल्स को ट्यून करना विशेषज्ञता प्राप्त तकनीकों के बिना असंभव है।
माइक्रोसॉफ्ट द्वारा प्रस्तुत पेपर में, लो-रैंक एडाप्टेशन (LoRA) को इन चुनौतियों को कम करने और LLMs को अधिक सुलभ और अनुकूलन योग्य बनाने के लिए पेश किया गया था।
LoRA का मूल इसके दृष्टिकोण में निहित है, जो मॉडल अनुकूलन के लिए पूरे मॉडल को पुनः प्रशिक्षित करने की आवश्यकता को कम करता है। पारंपरिक फाइन-ट्यूनिंग के विपरीत, जहां प्रत्येक पैरामीटर को बदला जाता है, LoRA एक अधिक बुद्धिमान मार्ग अपनाता है। यह पूर्व-प्रशिक्षित मॉडल वजनों को जमा देता है और ट्रांसफॉर्मर आर्किटेक्चर के प्रत्येक परत में प्रशिक्षित रैंक विभाजन मैट्रिक्स को पेश करता है। यह दृष्टिकोण प्रशिक्षित पैरामीटर की संख्या को काफी कम कर देता है, जिससे अनुकूलन प्रक्रिया अधिक कुशल हो जाती है।













