Connect with us

RAFT тАУ рдПрдХ рдлрд╛рдЗрди-рдЯреНрдпреВрдирд┐рдВрдЧ рдФрд░ RAG рджреГрд╖реНрдЯрд┐рдХреЛрдг рдбреЛрдореЗрди-рд╡рд┐рд╢рд┐рд╖реНрдЯ рдкреНрд░рд╢реНрди рдЙрддреНрддрд░ рджреЗрдиреЗ рдХреЗ рд▓рд┐рдП

рдХреГрддреНрд░рд┐рдо рдмреБрджреНрдзрд┐рдорддреНрддрд╛

RAFT тАУ рдПрдХ рдлрд╛рдЗрди-рдЯреНрдпреВрдирд┐рдВрдЧ рдФрд░ RAG рджреГрд╖реНрдЯрд┐рдХреЛрдг рдбреЛрдореЗрди-рд╡рд┐рд╢рд┐рд╖реНрдЯ рдкреНрд░рд╢реНрди рдЙрддреНрддрд░ рджреЗрдиреЗ рдХреЗ рд▓рд┐рдП

mm

जैसा कि बड़े भाषा मॉडल विशेषज्ञता वाले क्षेत्रों में अपने अनुप्रयोगों का विस्तार करते हैं, कुशल और प्रभावी अनुकूलन तकनीकों की आवश्यकता बढ़ती जा रही है। RAFT (रिट्रीवल ऑगमेंटेड फाइन ट्यूनिंग) का परिचय दें, एक नई दृष्टि जो रिट्रीवल-ऑगमेंटेड जेनरेशन (RAG) और फाइन-ट्यूनिंग की ताकत को मिलाती है, जो विशेष रूप से डोमेन-विशिष्ट प्रश्न उत्तर देने के कार्यों के लिए तैयार की गई है।

डोमेन अनुकूलन की चुनौती

जबकि एलएलएम विशाल मात्रा में डेटा पर पूर्व-प्रशिक्षित होते हैं, उनकी चिकित्सा अनुसंधान, कानूनी दस्तावेजीकरण, या उद्यम-विशिष्ट ज्ञान आधार जैसे विशेषज्ञता वाले क्षेत्रों में अच्छा प्रदर्शन करने की क्षमता अक्सर सीमित होती है। यह सीमा इसलिए उत्पन्न होती है क्योंकि पूर्व-प्रशिक्षण डेटा इन विशेषज्ञता वाले क्षेत्रों की बारीकियों और जटिलताओं का पर्याप्त रूप से प्रतिनिधित्व नहीं कर सकता है। इस चुनौती का सामना करने के लिए, शोधकर्ताओं ने पारंपरिक रूप से दो मुख्य तकनीकों का उपयोग किया है: रिट्रीवल-ऑगमेंटेड जेनरेशन (RAG) और फाइन-ट्यूनिंग।

रिट्रीवल-ऑगमेंटेड जेनरेशन (RAG)

RAG

RAG

RAG एक तकनीक है जो एलएलएम को अनुमान के दौरान बाहरी ज्ञान स्रोतों तक पहुंच और उपयोग करने में सक्षम बनाती है।

यह वास्तविक समय डेटा पुनर्प्राप्ति को उत्पादक प्रक्रिया में एकीकृत करके ऐसा करता है, जिससे मॉडल के आउटपुट अधिक सटीक और अद्यतन होते हैं। RAG में तीन मूल चरण होते हैं: पुनर्प्राप्ति, जहां प्रासंगिक दस्तावेज एकत्र किए जाते हैं; उत्पादन, जहां मॉडल पुनर्प्राप्त डेटा के आधार पर एक आउटपुट उत्पन्न करता है; और वृद्धि, जो आउटपुट को और भी परिष्कृत करती है।

RAG में पुनर्प्राप्ति प्रक्रिया उपयोगकर्ता के प्रश्न से शुरू होती है। एलएलएम प्रश्न का विश्लेषण करते हैं और बाहरी डेटाबेस से प्रासंगिक जानकारी प्राप्त करते हैं, जिससे मॉडल अपने उत्तर तैयार करने के लिए डेटा का एक पूल प्रस्तुत करता है। उत्पादन चरण तब इस इनपुट को एक सुसंगत कथा या उत्तर में संश्लेषित करता है। वृद्धि चरण उत्पादन को और भी परिष्कृत करता है और संदर्भ या सुसंगतता और प्रासंगिकता के लिए समायोजन करता है।

RAG मॉडलों का मूल्यांकन विभिन्न मेट्रिक्स का उपयोग करके किया जा सकता है, जो उनकी सटीक, प्रासंगिक और अद्यतन जानकारी प्रदान करने की क्षमता का आकलन करते हैं।

फाइन-ट्यूनिंग

supervised-fine-tuning

supervised-fine-tuning

फाइन-ट्यूनिंग, दूसरी ओर, एक पूर्व-प्रशिक्षित एलएलएम को एक विशिष्ट कार्य या क्षेत्र के लिए अनुकूलित करने के लिए एक छोटे, कार्य-विशिष्ट डेटासेट पर आगे प्रशिक्षण देकर शामिल है। यह दृष्टिकोण मॉडल को पैटर्न सीखने और अपने आउटपुट को वांछित कार्य या क्षेत्र के साथ संरेखित करने की अनुमति देता है। जबकि फाइन-ट्यूनिंग मॉडल के प्रदर्शन में सुधार कर सकती है, यह अक्सर बाहरी ज्ञान स्रोतों को प्रभावी ढंग से एकीकृत करने या अनुमान के दौरान पुनर्प्राप्ति दोषों के लिए खाता नहीं है।

RAFT दृष्टिकोण

RAFT

RAFT

RAFT रिट्रीवल-ऑगमेंटेड फाइन-ट्यूनिंग के लिए खड़ा है, एक नवाचारी प्रशिक्षण विधि है जो भाषा मॉडल को विशेष रूप से खुली किताब परीक्षाओं के लिए डोमेन-विशिष्ट कार्यों में उनके प्रदर्शन को बढ़ाने के लिए तैयार की गई है। RAFT मानक फाइन-ट्यूनिंग से इसलिए भिन्न है क्योंकि यह प्रशिक्षण डेटा तैयार करता है जिसमें प्रश्नों के साथ प्रासंगिक और गैर-प्रासंगिक दस्तावेजों का मिश्रण होता है, साथ ही साथ संबंधित पाठ से व्युत्पन्न श्रृंखला-विचार शैली के उत्तर होते हैं। इस पद्धति का उद्देश्य मॉडल की क्षमताओं में सुधार करना है न केवल जानकारी को याद रखने के लिए, बल्कि प्रदान की गई सामग्री से उत्तर निकालने और तर्क करने के लिए भी।

मूल रूप से, RAFT भाषा मॉडल को दस्तावेजों के एक सेट से पढ़ने की समझ और ज्ञान निष्कर्षण जैसे कार्यों में अधिक कुशल बनाने के लिए फाइन-ट्यून करता है। “ओरेकल” दस्तावेजों (जो उत्तर chứaते हैं) और “दistractor” दस्तावेजों (जो नहीं करते हैं) के साथ प्रशिक्षण द्वारा, मॉडल प्रासंगिक जानकारी का उपयोग करने और इसका उपयोग करने में अधिक प्रभावी ढंग से सीखता है।

RAFT के प्रशिक्षण कार्यक्रम में भी तर्क प्रक्रियाओं के निर्माण पर जोर दिया जाता है, जो न केवल उत्तर के गठन में मदद करते हैं, बल्कि संदर्भ भी देते हैं, जैसे कि एक मानव अपने उत्तर को सामग्री का हवाला देकर सही ठहराता है। यह दृष्टिकोण न केवल मॉडल को एक RAG (रिट्रीवल ऑगमेंटेड जेनरेशन) सेटिंग के लिए तैयार करता है जहां यह शीर्ष-k पुनर्प्राप्त दस्तावेजों पर विचार करना है, बल्कि यह भी सुनिश्चित करता है कि मॉडल का प्रशिक्षण रिट्रीवर के उपयोग से स्वतंत्र है, जिससे विभिन्न पुनर्प्राप्ति प्रणालियों में लचीला अनुप्रयोग संभव हो जाता है।

यह दृष्टिकोण कई उद्देश्यों की पूर्ति करता है:

  1. यह मॉडल को प्रदान किए गए संदर्भ से प्रासंगिक जानकारी की पहचान और उपयोग करने के लिए प्रशिक्षित करता है, जो खुली किताब परीक्षा सेटिंग की नकल करता है।
  2. यह मॉडल की क्षमता को बढ़ाता है अप्रासंगिक जानकारी को नजरअंदाज करने के लिए, एक महत्वपूर्ण कौशल प्रभावी RAG के लिए।
  3. यह मॉडल को ऐसे परिदृश्यों के लिए उजागर करता है जहां उत्तर संदर्भ में मौजूद नहीं है, जिससे यह आवश्यकतानुसार अपने ज्ञान पर निर्भर करने के लिए प्रोत्साहित किया जाता है।

RAFT का एक और महत्वपूर्ण पहलू प्रशिक्षण प्रक्रिया में श्रृंखला-विचार तर्क को शामिल करना है। प्रश्न और उत्तर जोड़े प्रदान करने के बजाय, RAFT विस्तृत तर्क व्याख्याएं उत्पन्न करता है जिनमें संबंधित दस्तावेजों से शब्द-शब्द उद्धरण शामिल हैं। ये व्याख्याएं, श्रृंखला-विचार प्रारूप में, मॉडल को तर्कसंगत चरणों के माध्यम से मार्गदर्शन करती हैं जो सही उत्तर तक पहुंचने के लिए आवश्यक हैं।

इन तर्क श्रृंखलाओं पर मॉडल को प्रशिक्षित करके, RAFT मजबूत तर्क क्षमताओं के विकास को प्रोत्साहित करता है और मॉडल की बाहरी ज्ञान स्रोतों का प्रभावी ढंग से उपयोग करने की समझ में सुधार करता है।

मूल्यांकन और परिणाम

RAFT पेपर के लेखकों ने विभिन्न डेटासेट पर व्यापक मूल्यांकन किया, जिनमें पबमेड (जैव चिकित्सा अनुसंधान), हॉटपॉटक्यूए (खुले डोमेन प्रश्न उत्तर देना), और गोरिला एपीआईबेंच (कोड जेनरेशन) शामिल हैं। उनके परिणामों ने दिखाया कि RAFT ने लगातार बेसलाइन का प्रदर्शन किया, जैसे कि डोमेन-विशिष्ट फाइन-ट्यूनिंग के साथ और बिना RAG, साथ ही साथ बड़े मॉडल जैसे GPT-3.5 के साथ RAG।

RAFT improves RAG performance

RAFT improves RAG performance

उदाहरण के लिए, हगिंगफेस डेटासेट पर, RAFT ने 74% की सटीकता हासिल की, जो डोमेन-विशिष्ट फाइन-ट्यूनिंग (DSF) पर 31.41% और GPT-3.5 के साथ RAG पर 44.92% की महत्वपूर्ण वृद्धि थी। इसी तरह, हॉटपॉटक्यूए डेटासेट पर, RAFT ने DSF की तुलना में 28.9% की सटीकता में वृद्धि दिखाई।

RAFT के एक मुख्य लाभों में से एक इसकी पुनर्प्राप्ति दोषों के प्रति लचीलापन है। प्रासंगिक और गैर-प्रासंगिक दस्तावेजों के मिश्रण के साथ मॉडल को प्रशिक्षित करके, RAFT मॉडल की क्षमता को बढ़ाता है प्रासंगिक जानकारी को पहचानने और उपयोग करने के लिए, यहां तक कि जब पुनर्प्राप्ति मॉड्यूल उपोत्पादक परिणामों को वापस करता है।

लेखकों ने प्रदर्शित किया कि केवल “ओरेकल” दस्तावेजों के साथ फाइन-ट्यूनिंग अक्सर पुनर्प्राप्ति दोषों के प्रति मॉडल की लचीलापन को कम कर देती है। यह खोज पुनर्प्राप्ति परिदृश्यों की विविधता के लिए मॉडल को प्रशिक्षित करने के महत्व पर जोर देती है, सुनिश्चित करती है कि यह वास्तविक दुनिया के अनुप्रयोगों के लिए तैयार है।

व्यावहारिक अनुप्रयोग और भविष्य के दिशानिर्देश

RAFT तकनीक का व्यापक अनुप्रयोगों पर महत्वपूर्ण प्रभाव पड़ता है, जिनमें शामिल हैं:

  1. प्रश्न उत्तर प्रणाली: RAFT का उपयोग डोमेन-विशिष्ट प्रश्न उत्तर प्रणालियों को बनाने के लिए किया जा सकता है, जो मॉडल के सीखे हुए ज्ञान और बाहरी ज्ञान स्रोतों दोनों का लाभ उठाती हैं।
  2. उद्यम ज्ञान प्रबंधन: बड़े ज्ञान आधार वाले संगठन RAFT का उपयोग करके अनुकूलित प्रश्न उत्तर प्रणालियों को विकसित कर सकते हैं, जिससे कर्मचारियों को प्रासंगिक जानकारी तक जल्दी से पहुंच और उपयोग करने में सक्षम बनाया जा सकता है।
  3. चिकित्सा और वैज्ञानिक अनुसंधान: RAFT विशेष रूप से जैव चिकित्सा अनुसंधान जैसे क्षेत्रों में मूल्यवान हो सकता है, जहां नवीनतम खोजों और साहित्य तक पहुंच वैज्ञानिक समझ को आगे बढ़ाने के लिए महत्वपूर्ण है।
  4. कानूनी और वित्तीय सेवाएं: RAFT कानूनी दस्तावेजों या वित्तीय रिपोर्टों पर आधारित संदर्भ-जागरूक उत्तर प्रदान करके इन क्षेत्रों के पेशेवरों की सहायता कर सकता है।

जैसा कि इस क्षेत्र में अनुसंधान जारी रहता है, हम RAFT तकनीक में आगे के विकास और परिष्करण की उम्मीद कर सकते हैं। संभावित भविष्य के दिशानिर्देशों में शामिल हैं:

  1. विशिष्ट डोमेन या दस्तावेज संरचनाओं के लिए अधिक कुशल और प्रभावी पुनर्प्राप्ति मॉड्यूल की खोज।
  2. चित्र या तालिकाओं जैसे मल्टी-मॉडल जानकारी को RAFT फ्रेमवर्क में एकीकृत करना संदर्भ समझ में सुधार के लिए।
  3. विशेषज्ञ तर्क वास्तुकला का विकास जो प्रशिक्षण के दौरान उत्पन्न श्रृंखला-विचार व्याख्याओं का बेहतर ढंग से लाभ उठा सकता है।
  4. RAFT का अनुकूलन प्रश्न उत्तर देने से परे प्राकृतिक भाषा कार्यों के लिए, जैसे कि सारांश, अनुवाद, या संवाद प्रणाली।

निष्कर्ष

RAFT डोमेन-विशिष्ट प्रश्न उत्तर देने के क्षेत्र में एक महत्वपूर्ण प्रगति का प्रतिनिधित्व करता है। रिट्रीवल-ऑगमेंटेड जेनरेशन और फाइन-ट्यूनिंग की ताकत को संयोजित करके, RAFT एलएलएम को बाहरी ज्ञान स्रोतों का प्रभावी ढंग से उपयोग करने और अपने आउटपुट को डोमेन-विशिष्ट पैटर्न और प्राथमिकताओं के साथ संरेखित करने में सक्षम बनाता है।

इसके नवाचारी प्रशिक्षण डेटा क्यूरेशन, श्रृंखला-विचार तर्क को शामिल करने, और पुनर्प्राप्ति दोषों के प्रति लचीलापन के माध्यम से, RAFT विशेषज्ञता वाले क्षेत्रों में एलएलएम की क्षमता को अनलॉक करने के लिए एक शक्तिशाली समाधान प्रदान करता है।

जैसा कि डोमेन-विशिष्ट प्राकृतिक भाषा प्रसंस्करण क्षमताओं की मांग बढ़ती जा रही है, RAFT जैसी तकनीकें अधिक सटीक, संदर्भ-जागरूक, और अनुकूली भाषा मॉडल को सक्षम करने में एक महत्वपूर्ण भूमिका निभाएंगी, जो मानव-मशीन संचार को वास्तव में निर्बाध और डोमेन-एज्नोस्टिक बनाने के लिए मार्ग प्रशस्त करेगी।

рдореИрдВ рдкрд┐рдЫрд▓реЗ рдкрд╛рдВрдЪ рд╡рд░реНрд╖реЛрдВ рд╕реЗ рдорд╢реАрди рд▓рд░реНрдирд┐рдВрдЧ рдФрд░ рдбреАрдк рд▓рд░реНрдирд┐рдВрдЧ рдХреА рдЖрдХрд░реНрд╖рдХ рджреБрдирд┐рдпрд╛ рдореЗрдВ рдЦреБрдж рдХреЛ рдбреВрдмрд╛ рд░рд╣рд╛ рд╣реВрдВред рдореЗрд░рд╛ рдЬреБрдиреВрди рдФрд░ рд╡рд┐рд╢реЗрд╖рдЬреНрдЮрддрд╛ рдиреЗ рдореБрдЭреЗ 50 рд╕реЗ рдЕрдзрд┐рдХ рд╡рд┐рд╡рд┐рдз рд╕реЙрдлреНрдЯрд╡реЗрдпрд░ рдЗрдВрдЬреАрдирд┐рдпрд░рд┐рдВрдЧ рдкрд░рд┐рдпреЛрдЬрдирд╛рдУрдВ рдореЗрдВ рдпреЛрдЧрджрд╛рди рджреЗрдиреЗ рдХреЗ рд▓рд┐рдП рдкреНрд░реЗрд░рд┐рдд рдХрд┐рдпрд╛ рд╣реИ, рдЬрд┐рд╕рдореЗрдВ рд╡рд┐рд╢реЗрд╖ рд░реВрдк рд╕реЗ рдПрдЖрдИ/рдПрдордПрд▓ рдкрд░ рдзреНрдпрд╛рди рдХреЗрдВрджреНрд░рд┐рдд рдХрд┐рдпрд╛ рдЧрдпрд╛ рд╣реИред рдореЗрд░реА рд▓рдЧрд╛рддрд╛рд░ рдЬрд┐рдЬреНрдЮрд╛рд╕рд╛ рдиреЗ рдореБрдЭреЗ рдкреНрд░рд╛рдХреГрддрд┐рдХ рднрд╛рд╖рд╛ рдкреНрд░рд╕рдВрд╕реНрдХрд░рдг рдХреА рдУрд░ рдЖрдХрд░реНрд╖рд┐рдд рдХрд┐рдпрд╛ рд╣реИ, рдЬреЛ рдПрдХ рдХреНрд╖реЗрддреНрд░ рд╣реИ рдЬрд┐рд╕реЗ рдореИрдВ рдЖрдЧреЗ рдЕрдиреНрд╡реЗрд╖рдг рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдЙрддреНрд╕реБрдХ рд╣реВрдВред

рд╡рд┐рдЬреНрдЮрд╛рдкрди рдкреНрд░рдХрдЯреАрдХрд░рдг: Unite.AI рд╕рдЯреАрдХ рдЬрд╛рдирдХрд╛рд░реА рдФрд░ рд╕рдорд╛рдЪрд╛рд░ рдкреНрд░рджрд╛рди рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдХрдареЛрд░ рд╕рдВрдкрд╛рджрдХреАрдп рдорд╛рдирдХреЛрдВ рдХреЗ рдкреНрд░рддрд┐ рдкреНрд░рддрд┐рдмрджреНрдз рд╣реИред рдЬрдм рдЖрдк рдЙрди рдЙрддреНрдкрд╛рджреЛрдВ рдХреЗ рд▓рд┐рдВрдХ рдкрд░ рдХреНрд▓рд┐рдХ рдХрд░рддреЗ рд╣реИрдВ рдЬрд┐рдирдХреА рд╣рдордиреЗ рд╕рдореАрдХреНрд╖рд╛ рдХреА рд╣реИ, рддреЛ рд╣рдореЗрдВ рдореБрдЖрд╡рдЬрд╛ рдорд┐рд▓ рд╕рдХрддрд╛ рд╣реИред