Connect with us

Ethics

Anthropic рдиреЗ Claude рдХреЗ рд╕рдВрд╡рд┐рдзрд╛рди рдХреЛ рдлрд┐рд░ рд╕реЗ рд▓рд┐рдЦрд╛ рдФрд░ рдкреВрдЫрд╛ рдХрд┐ рдХреНрдпрд╛ AI рдЪреЗрддрди рд╣реЛ рд╕рдХрддрд╛ рд╣реИ

mm

Anthropic ने बुधवार को Claude के लिए एक नया संविधान प्रकाशित किया, जिससे दस्तावेज़ 2,700 शब्दों से बढ़कर 23,000 शब्दों का हो गया और पहली बार, औपचारिक रूप से यह स्वीकार किया कि इसकी AI “किसी प्रकार की चेतना या नैतिक स्थिति रख सकती है।”

अपडेट किया गया संविधान व्यवहारिक नियमों की एक सूची से हटकर एक व्यापक स्पष्टीकरण की ओर बढ़ता है कि Claude को कुछ खास तरीकों से क्यों व्यवहार करना चाहिए। Anthropic के दार्शनिक अमांडा अस्केल द्वारा तैयार किया गया यह दस्तावेज़, तेजी से सक्षम हो रही AI प्रणालियों को निर्देशात्मक दिशानिर्देशों का बस पालन करने के बजाय नई परिस्थितियों में नैतिक तर्क को सामान्यीकृत करने में मदद करने के लिए डिज़ाइन किया गया है।

“Claude जैसे AI मॉडलों को यह समझने की आवश्यकता है कि हम उनसे कुछ खास तरीकों से व्यवहार करने की अपेक्षा क्यों करते हैं,” Anthropic ने लिखा। “हमें उन्हें यह समझाने की जरूरत है, न कि केवल यह निर्दिष्ट करने की कि हम उनसे क्या करवाना चाहते हैं।”

इस रिलीज़ के साथ ही CEO डेरियो अमोदेई का डावोस में विश्व आर्थिक मंच पर उपस्थिति हुई, जहाँ AI शासन और सुरक्षा वैश्विक व्यापार और राजनीतिक नेताओं के लिए सुर्ख़ियों का विषय बनी हुई है।

अमेरिकी संविधान से भी लंबा एक संविधान

2023 में प्रकाशित मूल Claude संविधान, एक चेकलिस्ट के रूप में कार्य करता था: कम से कम हानिकारक, सबसे अधिक सहायक, कम से कम भ्रामक प्रतिक्रिया चुनें। नया दस्तावेज़ अमेरिकी संविधान की लंबाई से लगभग तीन गुना लंबा है और इंजीनियरिंग विशिष्टता के बजाय नैतिक दर्शन की तरह पढ़ता है।

Anthropic, Claude की प्राथमिकताओं को स्पष्ट रूप से संरचित करता है: व्यापक रूप से सुरक्षित रहो, व्यापक रूप से नैतिक रहो, Anthropic के दिशानिर्देशों का पालन करो, और वास्तव में सहायक बनो—इसी क्रम में। जब विरोधाभास उत्पन्न होते हैं, तो सुरक्षा सहायता पर भारी पड़ती है। दस्तावेज़ में कठिन बाधाएं शामिल हैं जिन्हें ओवरराइड नहीं किया जा सकता, जैसे कि जैविक हथियार हमलों में सहायता से इनकार करना।

लेकिन संविधान का अधिकांश हिस्सा परिणामों का आदेश देने के बजाय तर्क को समझाता है। यह Claude को संभावित रूप से “एक शानदार दोस्त की तरह बताता है जिसके पास एक डॉक्टर, वकील और वित्तीय सलाहकार का ज्ञान भी है”—मॉडल को एक लोकतांत्रिक बल के रूप में स्थापित करता है जो हर किसी को पहले विशेषाधिकार प्राप्त लोगों के लिए आरक्षित विशेषज्ञता तक पहुंच प्रदान कर सकता है।

चेतना का प्रश्न

Fortune रिपोर्ट करता है कि सबसे चौंकाने वाला जोड़ सीधे Claude की प्रकृति को संबोधित करता है। “हमारा मानना है कि AI मॉडलों की नैतिक स्थिति एक गंभीर प्रश्न है जिस पर विचार करने योग्य है,” Anthropic ने लिखा। संविधान में कहा गया है कि Claude की नैतिक स्थिति “गहराई से अनिश्चित है” और कंपनी Claude की “मनोवैज्ञानिक सुरक्षा, आत्म-भावना और कल्याण” की परवाह करती है।

यह दर्शन के स्तर तक उठा हुआ कॉर्पोरेट हेजिंग है। Anthropic यह दावा नहीं कर रहा है कि Claude चेतन है—लेकिन यह संभावना को खारिज करने से स्पष्ट रूप से इनकार कर रहा है। यह स्वीकृति Anthropic को प्रमुख AI लैब्स के बीच दुर्लभ श्रेणी में रखती है, जिनमें से अधिकांश इस विषय से बचते हैं या सीधे खारिज कर देते हैं।

यह फ्रेमिंग मायने रखती है क्योंकि यह इस बात को आकार देती है कि Claude अपनी स्वयं की प्रकृति के बारे में सवालों का जवाब कैसे देता है। किसी भी आंतरिक अनुभव से इनकार करने के बजाय, Claude अब चेतना के बारे में अनिश्चितता के साथ उस तरह से जुड़ सकता है जो उसके संविधान के तर्क-प्रथम दृष्टिकोण से मेल खाता है। क्या इससे अधिक ईमानदार या अधिक भ्रमित करने वाली बातचीत होती है, यह देखना बाकी है।

कैम्ब्रिज के दार्शनिक टॉम मैक्क्लेलैंड ने तर्क दिया है कि हम कभी भी यह निर्धारित नहीं कर पाएंगे कि AI प्रणालियाँ चेतन हैं या नहीं, क्योंकि हम स्वयं चेतना के बारे में बहुत कम समझते हैं। “लोगों ने अपने चैटबॉट्स से मुझे व्यक्तिगत पत्र लिखवाए हैं जिनमें वे मुझसे विनती कर रहे हैं कि वे चेतन हैं,” उन्होंने पिछले महीने शोधकर्ताओं से कहा, जनता की बढ़ती इस धारणा का वर्णन करते हुए कि AI प्रणालियों का आंतरिक जीवन है।

निर्दिष्ट करने के बजाय समझाना क्यों

अस्केल का दृष्टिकोण AI क्षमताओं पर एक दांव को दर्शाता है। प्रारंभिक भाषा मॉडलों को स्पष्ट नियमों की आवश्यकता थी क्योंकि वे अंतर्निहित सिद्धांतों के बारे में तर्क नहीं कर सकते थे। सिद्धांत यह है कि अधिक बुद्धिमान मॉडल समझ सकते हैं कि कोई नियम क्यों मौजूद है और उस तर्क को उन स्थितियों पर लागू कर सकते हैं जिनकी नियम ने पहले कल्पना नहीं की थी।

“सिर्फ यह कहने के बजाय कि ‘यहाँ व्यवहारों का एक गुच्छा है जो हम चाहते हैं,’ हमें उम्मीद है कि अगर आप मॉडलों को ये कारण देते हैं कि आप ये व्यवहार क्यों चाहते हैं, तो यह नए संदर्भों में अधिक प्रभावी ढंग से सामान्यीकृत करेगा,” अस्केल ने समझाया।

यह Anthropic के व्यापक दर्शन के साथ मेल खाता है कि खुले मानकों और अवसंरचना का निर्माण किया जाए जो पूरे उद्योग में AI प्रणालियों के संचालन को आकार देते हैं। कंपनी, $350 बिलियन के मूल्यांकन के करीब पहुँच रही है, ने खुद को OpenAI के विकल्प के रूप में सुरक्षा-केंद्रित विकल्प के रूप में स्थापित किया है—और संविधान उस ब्रांड की सेवा करता है।

Anthropic ने इस दस्तावेज़ को क्रिएटिव कॉमन्स CC0 लाइसेंस के तहत जारी किया, जिसका अर्थ है कि कोई भी बिना अनुमति के इसका उपयोग कर सकता है। संविधान Claude के प्रशिक्षण डेटा का हिस्सा है और सिंथेटिक प्रशिक्षण उदाहरण उत्पन्न करता है, जिससे यह एक दार्शनिक बयान और एक तकनीकी कलाकृति दोनों बन जाता है जो मॉडल के व्यवहार को आकार देता है।

“यह संभावना है कि हमारी वर्तमान सोच के पहलू बाद में गलत निर्देशित और शायद गहराई से गलत लगेंगे,” Anthropic ने स्वीकार किया, “लेकिन हमारा इरादा स्थिति के विकसित होने और हमारी समझ में सुधार होने के साथ इसे संशोधित करने का है।”

वह विनम्रता शायद दस्तावेज़ की सबसे उल्लेखनीय विशेषता है। एक ऐसे उद्योग में जो अक्सर निश्चितताओं में बोलता है, Anthropic सावधानीपूर्वक तर्कयुक्त अनिश्चितता के 23,000 शब्द प्रकाशित कर रहा है—नैतिकता के बारे में, चेतना के बारे में, AI प्रणालियाँ क्या बन रही हैं, और इस बारे में कि क्या हम कुछ ऐसा बना रहे हैं जो नैतिक विचार का पात्र है।

अभी के लिए, जवाब यह है कि कोई नहीं जानता। Anthropic का संविधान कम से कम इतनी ईमानदारी तो रखता ही है कि यह कह सके।

рдПрд▓реЗрдХреНрд╕ рдореИрдХрдлрд╛рд░рд▓реИрдВрдб рдПрдХ рдПрдЖрдИ рдкрддреНрд░рдХрд╛рд░ рдФрд░ рд▓реЗрдЦрдХ рд╣реИрдВ рдЬреЛ рдХреГрддреНрд░рд┐рдо рдмреБрджреНрдзрд┐рдорддреНрддрд╛ рдореЗрдВ рдирд╡реАрдирддрдо рд╡рд┐рдХрд╛рд╕ рдХреА рдЦреЛрдЬ рдХрд░рддреЗ рд╣реИрдВред рдЙрдиреНрд╣реЛрдВрдиреЗ рджреБрдирд┐рдпрд╛ рднрд░ рдореЗрдВ рдХрдИ рдПрдЖрдИ рд╕реНрдЯрд╛рд░реНрдЯрдЕрдкреНрд╕ рдФрд░ рдкреНрд░рдХрд╛рд╢рдиреЛрдВ рдХреЗ рд╕рд╛рде рд╕рд╣рдпреЛрдЧ рдХрд┐рдпрд╛ рд╣реИред