Connect with us

LoRa, QLoRA рдФрд░ QA-LoRA: рд▓рд╛рд░реНрдЬ рд▓реИрдВрдЧреНрд╡реЗрдЬ рдореЙрдбрд▓реНрд╕ рдореЗрдВ рд▓реЛ-рд░реИрдВрдХ рдореИрдЯреНрд░рд┐рдХреНрд╕ рдлреИрдХреНрдЯрд░рд╛рдЗрдЬреЗрд╢рди рдХреЗ рдорд╛рдзреНрдпрдо рд╕реЗ рдХреБрд╢рд▓ рдЕрдиреБрдХреВрд▓рди

рдХреГрддреНрд░рд┐рдо рдмреБрджреНрдзрд┐рдорддреНрддрд╛

LoRa, QLoRA рдФрд░ QA-LoRA: рд▓рд╛рд░реНрдЬ рд▓реИрдВрдЧреНрд╡реЗрдЬ рдореЙрдбрд▓реНрд╕ рдореЗрдВ рд▓реЛ-рд░реИрдВрдХ рдореИрдЯреНрд░рд┐рдХреНрд╕ рдлреИрдХреНрдЯрд░рд╛рдЗрдЬреЗрд╢рди рдХреЗ рдорд╛рдзреНрдпрдо рд╕реЗ рдХреБрд╢рд▓ рдЕрдиреБрдХреВрд▓рди

mm
LoRA : Low-Rank Adaptation of Large Language Models

लार्ज लैंग्वेज मॉडल्स (LLMs) ने एक अनोखी निचे बनाई है, जो मानव-जैसे पाठ को समझने और उत्पन्न करने में असाधारण क्षमताएं प्रदान करते हैं। LLMs की शक्ति उनके विशाल आकार में निहित है, जिसमें अक्सर अरबों पैरामीटर होते हैं। जबकि यह विशाल आकार उनके प्रदर्शन को बढ़ाता है, यह समानांतर रूप से विशिष्ट कार्यों या डोमेन के लिए मॉडल अनुकूलन के लिए चुनौतियों को भी जन्म देता है। LLMs के पारंपरिक प्रबंधन मार्ग, जैसे कि सभी पैरामीटर को फाइन-ट्यून करना, एक भारी गणनात्मक और वित्तीय बोझ प्रस्तुत करते हैं, जो उनके व्यापक अपनाने में एक महत्वपूर्ण बाधा के रूप में कार्य करता है।

एक पिछले लेख में, हमने लार्ज लैंग्वेज मॉडल्स (LLMs) को विशिष्ट आवश्यकताओं के अनुसार अनुकूलित करने के लिए फाइन-ट्यूनिंग पर गहराई से चर्चा की। हमने विभिन्न फाइन-ट्यूनिंग विधियों का अन्वेषण किया, जैसे कि निर्देश-आधारित फाइन-ट्यूनिंग, एकल-कार्य फाइन-ट्यूनिंग, और पैरामीटर कुशल फाइन-ट्यूनिंग (PEFT), प्रत्येक की अपनी विशिष्ट दृष्टिकोण के साथ LLMs को विभिन्न कार्यों के लिए अनुकूलित करने के लिए। चर्चा के केंद्र में ट्रांसफॉर्मर आर्किटेक्चर था, जो LLMs की रीढ़ है, और फाइन-ट्यूनिंग के दौरान विशाल पैरामीटर संख्या के कारण उत्पन्न होने वाली गणनात्मक और मेमोरी मांगों की चुनौतियाँ थीं।

рдкреИрд░рд╛рдореАрдЯрд░реНрд╕ рдЗрди рдПрд▓рдПрд▓рдПрдо

https://huggingface.co/blog/hf-bitsandbytes-integration

उपरोक्त छवि विभिन्न बड़े भाषा मॉडल्स के पैरामीटर संख्या के अनुसार उनके आकार को दर्शाती है। विशेष रूप से, पाम, ब्लूम, आदि।

इस वर्ष के रूप में, बड़े मॉडल्स को और भी बड़ा बनाने के लिए कई प्रगति हुई हैं। हालांकि, मानक प्रणालियों पर इतने बड़े मॉडल्स को ट्यून करना विशेषज्ञता प्राप्त तकनीकों के बिना असंभव है।

माइक्रोसॉफ्ट द्वारा प्रस्तुत पेपर में, लो-रैंक एडाप्टेशन (LoRA) को इन चुनौतियों को कम करने और LLMs को अधिक सुलभ और अनुकूलन योग्य बनाने के लिए पेश किया गया था।

LoRA का मूल इसके दृष्टिकोण में निहित है, जो मॉडल अनुकूलन के लिए पूरे मॉडल को पुनः प्रशिक्षित करने की आवश्यकता को कम करता है। पारंपरिक फाइन-ट्यूनिंग के विपरीत, जहां प्रत्येक पैरामीटर को बदला जाता है, LoRA एक अधिक बुद्धिमान मार्ग अपनाता है। यह पूर्व-प्रशिक्षित मॉडल वजनों को जमा देता है और ट्रांसफॉर्मर आर्किटेक्चर के प्रत्येक परत में प्रशिक्षित रैंक विभाजन मैट्रिक्स को पेश करता है। यह दृष्टिकोण प्रशिक्षित पैरामीटर की संख्या को काफी कम कर देता है, जिससे अनुकूलन प्रक्रिया अधिक कुशल हो जाती है।

рдореИрдВ рдкрд┐рдЫрд▓реЗ рдкрд╛рдВрдЪ рд╡рд░реНрд╖реЛрдВ рд╕реЗ рдорд╢реАрди рд▓рд░реНрдирд┐рдВрдЧ рдФрд░ рдбреАрдк рд▓рд░реНрдирд┐рдВрдЧ рдХреА рдЖрдХрд░реНрд╖рдХ рджреБрдирд┐рдпрд╛ рдореЗрдВ рдЦреБрдж рдХреЛ рдбреВрдмрд╛ рд░рд╣рд╛ рд╣реВрдВред рдореЗрд░рд╛ рдЬреБрдиреВрди рдФрд░ рд╡рд┐рд╢реЗрд╖рдЬреНрдЮрддрд╛ рдиреЗ рдореБрдЭреЗ 50 рд╕реЗ рдЕрдзрд┐рдХ рд╡рд┐рд╡рд┐рдз рд╕реЙрдлреНрдЯрд╡реЗрдпрд░ рдЗрдВрдЬреАрдирд┐рдпрд░рд┐рдВрдЧ рдкрд░рд┐рдпреЛрдЬрдирд╛рдУрдВ рдореЗрдВ рдпреЛрдЧрджрд╛рди рджреЗрдиреЗ рдХреЗ рд▓рд┐рдП рдкреНрд░реЗрд░рд┐рдд рдХрд┐рдпрд╛ рд╣реИ, рдЬрд┐рд╕рдореЗрдВ рд╡рд┐рд╢реЗрд╖ рд░реВрдк рд╕реЗ рдПрдЖрдИ/рдПрдордПрд▓ рдкрд░ рдзреНрдпрд╛рди рдХреЗрдВрджреНрд░рд┐рдд рдХрд┐рдпрд╛ рдЧрдпрд╛ рд╣реИред рдореЗрд░реА рд▓рдЧрд╛рддрд╛рд░ рдЬрд┐рдЬреНрдЮрд╛рд╕рд╛ рдиреЗ рдореБрдЭреЗ рдкреНрд░рд╛рдХреГрддрд┐рдХ рднрд╛рд╖рд╛ рдкреНрд░рд╕рдВрд╕реНрдХрд░рдг рдХреА рдУрд░ рдЖрдХрд░реНрд╖рд┐рдд рдХрд┐рдпрд╛ рд╣реИ, рдЬреЛ рдПрдХ рдХреНрд╖реЗрддреНрд░ рд╣реИ рдЬрд┐рд╕реЗ рдореИрдВ рдЖрдЧреЗ рдЕрдиреНрд╡реЗрд╖рдг рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдЙрддреНрд╕реБрдХ рд╣реВрдВред