Connect with us

ह्यूरिस्टिक्स बनाम RAG: नीतिगत चालक के रूप में श्रिंकफ्लेशन

Anderson का एंगल

ह्यूरिस्टिक्स बनाम RAG: नीतिगत चालक के रूप में श्रिंकफ्लेशन

mm
A tiny robot tries to type on a full-size laptop by using a pencil. Z-Image V1.

अधिकांश मामलों में, वेब खोजने से हमारे प्रश्नों के प्रति ChatGPT के उत्तरों की तथ्यात्मक सटीकता बेहतर होती है। तो ऐसे माहौल में जहां AI सार्वजनिक स्वीकृति के लिए संघर्ष कर रहा है, यह डिफ़ॉल्ट रूप से ‘अनुमान’ क्यों लगा रहा है?   विचार यह मानना एक गलती है कि ChatGPT जैसे LLM कभी भी अपने मेजबानों की संभावित संदिग्ध प्रथाओं पर भंडाफोड़ करते हैं, भले ही एक महंगे और बर्बाद सत्र ने आपका गुस्सा इतना बढ़ा दिया हो कि आप सिस्टम की कमियों की गहराई में उतर जाएं:

यहां ChatGPT की अपने आंतरिक तर्क के प्रति प्राथमिकता (बनाम वेब-आधारित शोध और RAG के माध्यम से सत्यापन – जो कम भ्रम पैदा करता है, लेकिन अधिक खर्चीला है) पर चर्चा एक स्पष्ट स्पष्टवादिता का क्षण प्रेरित करती है; लेकिन इसे एक अलग नज़रिए से लें। Source: chatgpt.com

यहां ChatGPT की अपने आंतरिक तर्क के प्रति प्राथमिकता (बनाम वेब-आधारित शोध और RAG के माध्यम से सत्यापन – जो कम भ्रम पैदा करता है, लेकिन अधिक खर्चीला है) पर चर्चा एक स्पष्ट स्पष्टवादिता का क्षण प्रेरित करती है; लेकिन इसे एक अलग नज़रिए से लें। Source

अधिकांशतः – विशेष रूप से बाद की ज्ञान कट-ऑफ तिथियों वाले मॉडल्स के लिए – AI सिर्फ प्रशिक्षण के दौरान देखे गए Reddit और फोरम पोस्ट्स पर बातें कर रहा है। भले ही ऐसी ‘अंदरूनी अंतर्दृष्टि’ का कोई वास्तविक मूल्य हो, इसे साबित करना असंभव है। हालांकि, कभी-कभी ये गर्मागर्म वार्तालाप ‘हैक्स’ (या कम से कम, ‘ट्रिक्स’) की खोज की ओर ले जाते हैं जो LLM पर कुछ सबसे खराब दोहराव वाली आदतों को रोकने का वादा करते हैं – जैसे कि पिछले हफ्ते, जब ChatGPT ने सुझाव दिया कि मैं उसे अधिक मेहनत करवा सकता हूं और भ्रम कम करवा सकता हूं ‘no heuristics’ का आग्रह शामिल करके: ChatGPT तब से मैंने ‘no heuristics’ का बहुत उपयोग किया है, और एक बार भी मॉडल ने इस कमांड के साथ क्वेरी बंद करने के बाद अपने प्रशिक्षित ज्ञान का सहारा नहीं लिया है। बल्कि, GPT तुरंत रिट्रीवल ऑगमेंटेड जेनरेशन (RAG) का उपयोग करता है, ज्ञानवर्धक या पुष्टि करने वाले दस्तावेजों के लिए इंटरनेट खोजता है। व्यवहार में, अधिकांश अनुरोधों के लिए, यह हर बार क्वेरी सबमिट करते समय सिस्टम को ‘वेब खोजें’ बताने से थोड़ा अलग नहीं है। जहां ‘no heuristics’ वाक्यांश वास्तव में मदद कर सकता है, वह है जब ChatGPT को वास्तव में एक नई अपलोड की गई PDF पढ़ने के लिए प्राप्त करने की कोशिश कर रहे हों, बजाय उस सत्र में पिछली PDF अपलोड्स (या कई अन्य संभावित स्रोतों) से मेटाडेटा का उपयोग करके, एक ‘संभाव्य’ लेकिन पूरी तरह से भ्रमित उत्तर देने के लिए, उस दस्तावेज़ को पढ़े या यहां तक कि झांके बिना जो आपने अभी प्रस्तुत किया है। ChatGPT फिर भी, चैट सत्र जितना लंबा चल रहा हो, उतनी ही कम संभावना है कि यह काम करेगा – और यह सोचना एक गलती होगी कि ऐसी कोई भी ‘ट्रिक’ विश्वसनीय है या सिस्टम के विकसित होने के साथ उपलब्ध रहेगी।

RAG व्यापार

बढ़ती संस्कृति और श्रिंकफ्लेशन के संदर्भ में, और इस तथ्य के साथ कि OpenAI के GPT इंफ्रास्ट्रक्चर जैसे बड़े सिस्टम व्यवहार में सबसे छोटे व्यापक परिवर्तनों से भी बहुत प्रभावित होते हैं, यह भी मानना आसान है कि कोई ChatGPT जैसे लोकप्रिय LLM द्वारा किए गए विकल्पों से कम वजन प्राप्त कर रहा है। ऐसे विकल्प जैसे कि क्या यह RAG के साथ वेब तक पहुंचेगा; एक चेन-ऑफ-थॉट (CoT) प्रक्रिया शुरू करेगा जो एक बेहतर परिणाम प्राप्त कर सकती है, लेकिन जिसका अनुमान लगाने में अधिक खर्च आएगा और अधीर उपयोगकर्ता को थका सकती है; या अपने स्वयं के प्रशिक्षित एम्बेडिंग और स्थानीय रूप से उपलब्ध ज्ञान का सहारा लेगा – जो संभवतः सबसे सस्ता और तेज़ समाधान है। कई व्यावहारिक कारण हैं कि एक संवेदनशील सार्वजनिक प्रोफ़ाइल वाला LLM, जैसे ChatGPT, अपने RAG कॉल्स को सीमित करना पसंद कर सकता है, बजाय अपने स्वयं के ह्यूरिस्टिक्स को प्राथमिकता देने के। सबसे पहले, PR के दृष्टिकोण से, वेब के बिना कहे बार-बार उपयोग LLM की एक लोकप्रिय विशेषता के रूप में समर्थन करता है कि वे महज प्रॉक्सी द्वारा गूगलर हैं, जो उनके जन्मजात और महंगे प्रशिक्षित ज्ञान के मूल्य – और एक भुगतान सदस्यता के आकर्षण को कम करता है। दूसरा, RAG इंफ्रास्ट्रक्चर को चलाने, बनाए रखने और अपडेट करने में पैसा खर्च होता है, स्थानीय अनुमान की अपेक्षाकृत तुच्छ लागत की तुलना में, यानी, पैरामीट्रिक जनरेशन, जो सस्ता और तेज़ है। तीसरा, सिस्टम के पास यह निर्धारित करने का कोई प्रभावी तरीका नहीं हो सकता है कि क्या RAG उसके स्वयं के ह्यूरिस्टिक परिणामों में सुधार कर सकता है – और अक्सर यह पहले ह्यूरिस्टिक्स चलाए बिना यह निर्धारित नहीं कर सकता है। यह अंतिम उपयोगकर्ता को एक दोषपूर्ण ह्यूरिस्टिक परिणाम का मूल्यांकन करने का कार्य छोड़ देता है, और RAG कॉल का अनुरोध करने का कार्य छोड़ देता है यदि ह्यूरिस्टिक्स से परिणाम कमतर प्रतीत हुआ। ‘AI श्रिंकफ्लेशन’ के दृष्टिकोण से, ChatGPT के ह्यूरिस्टिक्स के माध्यम से गलती करने और RAG के माध्यम से सफल होने की संख्या इंगित कर सकती है, जैसा कि हाल ही में मेरे साथ हुआ, कि सिस्टम परिणामों के बजाय लागत के लिए अनुकूलन कर रहा है।

समय के साथ RAG आवश्यक हो जाता है

भले ही ChatGPT ने हाल ही में मेरे सामने ‘इकबालिया बयान’ दिया है कि यह वास्तव में मामला है, इस संबंध में ‘श्रिंकफ्लेशन’ का एक व्यापक संदर्भ है। हालांकि RAG सस्ता नहीं है, न तो अनुभव के घर्षण (लेटेंसी के माध्यम से) के संदर्भ में और न ही चलाने की लागत के संदर्भ में, यह या तो नियमित रूप से फाइन-ट्यूनिंग या यहां तक कि फाउंडेशन मॉडल को पुनः प्रशिक्षित करने से कहीं अधिक सस्ता है। एक अधिक दूर की कट-ऑफ तिथि वाले पुराने AI मॉडल के लिए, RAG नेटवर्क कॉल्स और अन्य संसाधनों की लागत पर सिस्टम की अद्यतनता बनाए रख सकता है; एक नए मॉडल के लिए, RAG की स्वयं की पुनर्प्राप्तियां अतिरिक्त या परिणामों की गुणवत्ता के लिए हानिकारक भी होने की संभावना है, जो कुछ मामलों में ह्यूरिस्टिक्स के माध्यम से बेहतर होते। इसलिए AI को न केवल यह निर्णय लेने की क्षमता की आवश्यकता प्रतीत होती है कि क्या उसे RAG का सहारा लेना चाहिए, बल्कि RAG का उपयोग करने पर अपनी नीति को लगातार विकसित करने की भी आवश्यकता है क्योंकि इसके आंतरिक वजन अधिक से अधिक पुराने होते जाते हैं। साथ ही, सिस्टम को ज्ञान में ‘सापेक्ष स्थिरांकों’ को सुरक्षित रखने की आवश्यकता है, जैसे चंद्र कक्षाएं और शास्त्रीय साहित्य, संस्कृति और इतिहास; साथ ही बुनियादी भूगोल, भौतिकी और अन्य वैज्ञानिक सिद्धांत जो समय के साथ बहुत विकसित होने की संभावना नहीं रखते (यानी, ‘अचानक परिवर्तन’ का जोखिम गैर-मौजूद नहीं है, लेकिन कम है)।

असामान्य विषय

फिलहाल, कम से कम जहां तक ChatGPT का संबंध है, RAG कॉल्स (यानी, किसी भी उपयोगकर्ता क्वेरी के लिए वेब शोध का उपयोग जो स्पष्ट रूप से या अंतर्निहित रूप से वेब शोध की मांग नहीं करती) सिस्टम द्वारा शायद ही कभी स्वायत्त रूप से चुने जाते हैं, यहां तक कि ‘सीमांत’ उप-डोमेन से निपटते समय भी। सीमांत डोमेन का एक ऐसा उदाहरण है ‘अस्पष्ट’ सॉफ़्टवेयर उपयोग। ऐसे मामले में, प्रशिक्षण के दौरान न्यूनतम उपलब्ध स्रोत डेटा ने ध्यान आकर्षित करने के लिए संघर्ष किया होगा, और डेटा की ‘आउटलायर’ स्थिति ने या तो इसे

लेखक मशीन लर्निंग पर, मानव छवि संश्लेषण में डोमेन विशेषज्ञ। Metaphysic.ai में पूर्व अनुसंधान सामग्री प्रमुख।
व्यक्तिगत साइट: martinanderson.ai
संपर्क: [email protected]
ट्विटर: @manders_ai