рдХреГрддреНрд░рд┐рдо рдмреБрджреНрдзрд┐рдорддреНрддрд╛
рдЬреЛ рдПрдЖрдИ рд╕реНрд╡рдпрдВ рдХреЛ рд╕рд┐рдЦрд╛рддрд╛ рд╣реИ рд╡рд╣ рдЕрдм рд╡рд┐рдЬреНрдЮрд╛рди рдХрдерд╛ рдирд╣реАрдВ рд╣реИ

नए एआई फ्रेमवर्क एक क्रांतिकारी छलांग की ओर बढ़ रहे हैं: मशीनें जो स्वयं को सुधारती हैं, मानव अंतर्दृष्टि की आवश्यकता नहीं है।
वर्षों से, यहां तक कि सबसे उन्नत एआई मॉडल भी निष्क्रिय इंजन बने रहे, जो प्रशिक्षण डेटा पर आधारित प्रतिक्रियाओं की भविष्यवाणी करते थे जिन्हें वे संशोधित नहीं कर सकते थे। लेकिन आज एआई के अगले अध्याय को परिभाषित करने वाली मॉडल का आकार नहीं है; यह मॉडल स्वयं विकसित हो सकता है या नहीं।
हाल ही में, एमआईटी के शोधकर्ताओं ने सेल्फ-एडाप्टिंग एलएलएम्स (एसईएल) नामक एक नए एआई फ्रेमवर्क का अनावरण किया। यह दृष्टिकोण बड़े भाषा मॉडल (एलएलएम) को स्वायत्त रूप से स्वयं को सुधारने की अनुमति देता है, जिससे एआई अपनी सीमाओं का निदान कर सकता है और एक आंतरिक फीडबैक लूप के माध्यम से अपने न्यूरल वजन को स्थायी रूप से अपडेट कर सकता है, जो कि पुनरावृत्ति सीखने से संचालित होता है। शोधकर्ताओं को त्रुटियों का पता लगाने, नए प्रॉम्प्ट लिखने या अतिरिक्त उदाहरणों को खिलाने की आवश्यकता के बजाय, मॉडल अपने विकास की पूरी मालिकी लेता है।
“बड़े भाषा मॉडल (एलएलएम) शक्तिशाली लेकिन स्थिर हैं; उनमें नए कार्यों, ज्ञान या उदाहरणों के प्रति अपने वजन को अनुकूलित करने के लिए तंत्र नहीं हैं,” एमआईटी शोधकर्ताओं ने एक ब्लॉग पोस्ट में लिखा। “ज्ञान एकीकरण और कुछ-शॉट सामान्यीकरण पर प्रयोग यह दिखाते हैं कि एसईएल नए डेटा के प्रति स्व-निर्देशित अनुकूलन में सक्षम भाषा मॉडल की ओर एक आशाजनक कदम है।”
प्रारंभिक परीक्षणों में, इस स्व-संपादित लूप ने मॉडल को जटिल अमूर्त तर्क पहेलियों पर पूर्ण विफलता से सफलता तक ले जाने की अनुमति दी, जो कि जीपीटी-4.1 जैसे बहुत बड़े मॉडल को 72.5 प्रतिशत सफलता दर के साथ पार कर गया, जहां पारंपरिक तरीके विफल रहे। इसके अलावा, एसईएल कथित तौर पर मानव पर्यवेक्षण को 85 प्रतिशत तक कम करता है, जबकि सटीकता और अनुकूलन में वृद्धि करता है।
स्व-शिक्षित एआई फ्रेमवर्क का उदय
एसईएल स्वायत्त मशीन बुद्धिमत्ता की ओर एक व्यापक प्रवृत्ति का हिस्सा है। साकाना एआई के शोधकर्ताओं ने, उदाहरण के लिए, डार्विन-गोडेल मशीन का परिचय दिया है — एक एआई एजेंट जो खुले समाप्ति विकास रणनीतियों का उपयोग करके अपना कोड लिखता है।
“यह विभिन्न स्व-सुधार बनाता है, जैसे कि पैच सत्यापन चरण, बेहतर फ़ाइल देखने, उन्नत संपादन उपकरण, एक से अधिक समाधान उत्पन्न करना और उनमें से सर्वश्रेष्ठ का चयन करना, और जब नई परिवर्तन करने की कोशिश की जा रही हो तो पहले क्या कोशिश की गई थी (और क्यों यह विफल रही) इसका इतिहास जोड़ना,” साकाना एआई ने एक ब्लॉग पोस्ट में लिखा।
इसी तरह, एंथ्रोपिक के एआई एजेंट, क्लॉड 4 द्वारा संचालित, अब कोडबेस और व्यवसाय उपकरणों के पार स्वायत्त रूप से कार्य प्रवाह को समन्वयित कर सकते हैं।
“एक प्रणाली जो अपने तर्क को संपत्ति, उसके वातावरण और उसके इतिहास के प्रकार के आधार पर संशोधित करती है, एक प्रतिक्रियात्मक प्रतिक्रिया से एक निरंतर रोकथाम रणनीति तक जाने की अनुमति देती है,” क्रिश्चियन स्ट्रुवे, सीईओ और सह-संस्थापक फ्रैक्टल ने मुझसे कहा। “यह अधिक परतों या अधिक पैरामीटर के बारे में नहीं है, लेकिन अधिक स्वायत्त और अधिक उपयोगी प्रणालियों के बारे में है।”
इन प्रयासों को एकत्रित करने वाली मूल बात यह है कि एआई को बड़ा होने की आवश्यकता नहीं है ताकि यह चतुर हो जाए। इसे अधिक अनुकूलनीय बनने की आवश्यकता है।
“स्केलिंग ने बड़े लाभ लाए हैं, लेकिन हम उस सीमा तक पहुंच रहे हैं जो केवल आकार ही प्राप्त कर सकता है। स्व-आकृति सीखने वाले मॉडल जैसे एसईएल एक आकर्षक अगला कदम प्रदान करते हैं जो प्रणालियों को समय के साथ बढ़ने और सुधारने की अनुमति देते हैं,” जोर्ज रियरा, फाउंडर और सीईओ फुल-स्टैक डेटा परामर्श प्लेटफ़ॉर्म डेटाको ने मुझसे कहा। “स्व-विकसित मॉडल प्रगति मापदंडों को स्थिर बेंचमार्क से अनुकूलन, सीखने की दक्षता और सुरक्षित दीर्घकालिक सुधार के उपायों में स्थानांतरित करते हैं। हम केवल मॉडल को तैनाती पर क्या जानता है इसका परीक्षण नहीं करते हैं, हम यह मूल्यांकन कर सकते हैं कि यह कितनी अच्छी तरह से सीखता है, बनाए रखता है और समय के साथ विकसित होता है।”
एआई पारिस्थितिकी तंत्र और स्वायत्तता की ओर वैश्विक दौड़ पर प्रभाव
यह स्तर की स्वायत्तता एआई तैनाती के अर्थशास्त्र को भी फिर से लिखती है। कल्पना कीजिए कि धोखाधड़ी का पता लगाने वाली प्रणालियां जो नए खतरों का मुकाबला करने के लिए स्वयं को अपडेट करती हैं, या एआई ट्यूटर जो छात्र के व्यवहार के आधार पर अपनी शिक्षण शैली को बदलते हैं। रोबोटिक्स में, स्व-आकृति फ्रेमवर्क से सीखने वाली मशीनें हो सकती हैं जो पुनः प्रोग्राम किए बिना नए आंदोलन पैटर्न सीखती हैं।
मध्य पूर्व में, देश जैसे संयुक्त अरब अमीरात और सऊदी अरब तेजी से अनुकूलन के लिए डिज़ाइन किए गए मूलभूत मॉडल बना रहे हैं। संयुक्त अरब अमीरात का फाल्कन और जी42 का जैस क्षेत्रीय प्रासंगिकता को ध्यान में रखते हुए निर्मित खुले स्रोत एलएलएम हैं, जबकि सऊदी अरब का एएलएएम और अरामको डिजिटल का मेटाब्रेन स्मार्ट सिटी, स्वास्थ्य सेवा और लॉजिस्टिक्स के लिए स्वायत्त एआई एजेंटों के क्षेत्र में आगे बढ़ रहे हैं।
इन प्रयासों में एमआईटी के एसईएल के रूप में स्व-संपादन क्षमता के मामले में अभी तक समान नहीं हैं, लेकिन वे एक साझा ट्रेजेक्टरी को प्रतिबिंबित करते हैं: निष्क्रिय एआई प्रणालियों से सक्रिय, विकसित एजेंटों तक जो सीमित मानव मार्गदर्शन के साथ जटिलता का नेविगेशन कर सकते हैं। और जैसे कि एसईएल, इन पहलों का समर्थन मजबूत शासन फ्रेमवर्क द्वारा किया जाता है, जो यह दर्शाता है कि एआई स्वायत्तता को जिम्मेदारी के साथ जोड़ा जाना चाहिए।
“यह स्व-प्रबंधित प्रणालियों की ओर एक पहला कदम है जो बिना निरंतर हस्तक्षेप के अपनी तर्क को संशोधित करती हैं,” स्ट्रुवे कहते हैं। “मुझे लगता है कि कृत्रिम बुद्धिमत्ता बुद्धिमत्ता की परिभाषा को पुनर्परिभाषित नहीं करती है, लेकिन यह हमें इसके साथ अपने संबंध को पुनः विचार करने के लिए मजबूर करती है। महत्वपूर्ण बात यह नहीं है कि एक मॉडल विकसित होता है, लेकिन यह मानव द्वारा परिभाषित लक्ष्यों के साथ संरेखित है।”
गोरिला लॉजिक के सीटीओ जेफ टाउन्स ने भी शासन को एआई विकास के साथ तालमेल बिठाने के महत्व पर जोर दिया: “प्रश्न यह नहीं है कि क्या एआई विकसित हो सकता है — यह है कि क्या उद्यम इसके साथ विकसित हो सकता है। शासन को हर एआई अनुकूलन को स्पष्ट परिणामों और केपीआई के साथ錨 करना चाहिए जिन्हें नेता माप सकते हैं और विश्वास कर सकते हैं, ताकि नवाचार आत्मविश्वास के साथ जोखिम के बजाय बढ़े।”
क्या हम स्व-सिखाने वाले एआई के लिए तैयार हैं?
एसईएल द्वारा उठाया गया सबसे विवादास्पद प्रश्न तकनीकी नहीं है — यह है कि यदि मॉडल स्वयं को सिखाने का निर्णय ले सकते हैं, तो हम उनके मूल्यों, प्राथमिकताओं और दिशा को आकार देने में क्या भूमिका निभाते हैं?
विशेषज्ञ चेतावनी देते हैं कि जैसे ही स्व-आकृति एआई प्रणालियां स्वायत्तता प्राप्त करती हैं, स्व-सुधार की ओर दौड़ नैतिक गार्डरेल की स्थापना से आगे नहीं निकलनी चाहिए। “मुझे लगता है कि सभी एआई प्रणालियों में कम से कम तीन मूलभूत नैतिक सिद्धांतों को शामिल किया जाना चाहिए,” जैकब इवांस, सीटीओ क्राइटेरियन ने कहा।
“पहले, और यह शायद बिना कहे चले जाता है, लेकिन एआई को खुद को एआई के रूप में पहचानने की आवश्यकता है। दूसरा, एआई को मानव-केंद्रित होना चाहिए, मानव निर्णय को पूरक और प्रतिस्थापित नहीं करना चाहिए। और अंत में, यह अपनी सीमाओं और अनिश्चितताओं को स्वीकार करना चाहिए, और ऐसी जानकारी प्रदान करने से इनकार करना चाहिए जो गंभीर नुकसान को सुविधाजनक बना सकती है। बिना इन सुरक्षा उपायों के, एआई हेरफेर का एक उपकरण बन सकता है, विश्वसनीय समर्थन के बजाय।”
“उत्पादन में मॉडल को स्व-सुधार करने के लिए, उन्हें एक गतिशील फीडबैक लूप की आवश्यकता है, सिर्फ स्थिर प्रशिक्षण नहीं। एक शक्तिशाली विधि एक ‘डिजिटल ट्विन’ या एक जटिल सैंडबॉक्स वातावरण का उपयोग करना है जहां एआई अपने स्वयं के स्व-उत्पन्न सुधारों का परीक्षण और सत्यापन कर सकता है इससे पहले कि वे कभी भी उपयोगकर्ताओं को तैनात किए जाएं,” ऑटोमोटस में कंप्यूटर विजन इंजीनियर गणेश वानामा ने साझा किया।
शासन के लिए, वानामा ने जोड़ा, “अनिवार्य नियंत्रण ‘मानव-इन-द-लूप’ पर्यवेक्षण है।” उन्होंने कहा कि जबकि हम मॉडल को अनुकूलित करना चाहते हैं, “आपको ‘संरेखण ड्रिफ्ट’ का पता लगाने के लिए निरंतर निगरानी करनी चाहिए जहां मॉडल अपने इरादा लक्ष्यों या सुरक्षा प्रतिबंधों से विचलित हो जाता है। इस प्रणाली को मानव ऑडिटर को वीटो या तुरंत वापस लेने की शक्ति देनी चाहिए किसी भी स्वायत्त अपडेट को जो सुरक्षा या प्रदर्शन समीक्षा में विफल रहता है।”
लेकिन अन्य विशेषज्ञों का मानना है कि अभी भी इन सुरक्षा उपायों को विकसित करने का समय है, यह तर्क देते हुए कि वास्तव में मजबूत, सामान्य-उद्देश्य, स्व-सुधार एआई बनाना अभी भी एक मोनументल चुनौती है।
“ऐसे मॉडल अभी भी वास्तविक समय में स्वयं को संशोधित करने की क्षमता की कमी है। प्रमुख चुनौतियों में त्रुटि पुनरावृत्ति को रोकना, विनाशकारी भूलने से बचना, अद्यतनों के दौरान स्थिरता सुनिश्चित करना और आंतरिक परिवर्तनों के आसपास पारदर्शिता बनाए रखना शामिल हैं,” रियरा ने कहा। “जब तक वे संबोधित नहीं हो जाते, पूरी स्व-निर्देशित अनुकूलन एक सीमा के बजाय एक वास्तविकता बनी हुई है।”
एमआईटी के शोधकर्ता एसईएल को एक आवश्यक विकास मानते हैं। जैसा कि एमआईटी के एक प्रमुख वैज्ञानिक ने कहा, यह फ्रेमवर्क वर्तमान में मानव सीखने की तुलना में अधिक बारीकी से अनुकरण करता है जो पहले से आया है।
“इन प्रणालियों में स्थिर, एक-शॉट मॉडल से अनुकूलन वास्तुकला तक एक बदलाव की ओर इशारा करता है जो अनुभव से सीख सकती है, स्मृति का प्रबंधन कर सकती है और समय के साथ लक्ष्यों का पीछा कर सकती है। दिशा स्पष्ट है: मॉड्यूलर, संदर्भ-जागरूक बुद्धिमत्ता जो निरंतर स्वयं को समायोजित कर सकती है,” रियरा ने मुझसे कहा। “हालांकि अभी भी प्रायोगिक चरण में, यह दृष्टिकोण अधिक स्वायत्त और लचीली एआई प्रणालियों की ओर एक महत्वपूर्ण कदम को चिह्नित करता है।”
चाहे यह अधिक व्यक्तिगत प्रणालियों की ओर ले जाए या पूरी तरह से नए मशीन एजेंसी के रूप, यह देखा जाना बाकी है। स्व-सिखाने वाले एआई का युग आ गया है — और यह न केवल अपना कोड लिख रहा है, बल्कि मशीनें क्या बन सकती हैं इसके नियमों को फिर से लिख रहा है।


