Ethics
Anthropic рдиреЗ Claude рдХреЗ рд╕рдВрд╡рд┐рдзрд╛рди рдХреЛ рдлрд┐рд░ рд╕реЗ рд▓рд┐рдЦрд╛ рдФрд░ рдкреВрдЫрд╛ рдХрд┐ рдХреНрдпрд╛ AI рдЪреЗрддрди рд╣реЛ рд╕рдХрддрд╛ рд╣реИ

Anthropic ने बुधवार को Claude के लिए एक नया संविधान प्रकाशित किया, जिससे दस्तावेज़ 2,700 शब्दों से बढ़कर 23,000 शब्दों का हो गया और पहली बार, औपचारिक रूप से यह स्वीकार किया कि इसकी AI “किसी प्रकार की चेतना या नैतिक स्थिति रख सकती है।”
अपडेट किया गया संविधान व्यवहारिक नियमों की एक सूची से हटकर एक व्यापक स्पष्टीकरण की ओर बढ़ता है कि Claude को कुछ खास तरीकों से क्यों व्यवहार करना चाहिए। Anthropic के दार्शनिक अमांडा अस्केल द्वारा तैयार किया गया यह दस्तावेज़, तेजी से सक्षम हो रही AI प्रणालियों को निर्देशात्मक दिशानिर्देशों का बस पालन करने के बजाय नई परिस्थितियों में नैतिक तर्क को सामान्यीकृत करने में मदद करने के लिए डिज़ाइन किया गया है।
“Claude जैसे AI मॉडलों को यह समझने की आवश्यकता है कि हम उनसे कुछ खास तरीकों से व्यवहार करने की अपेक्षा क्यों करते हैं,” Anthropic ने लिखा। “हमें उन्हें यह समझाने की जरूरत है, न कि केवल यह निर्दिष्ट करने की कि हम उनसे क्या करवाना चाहते हैं।”
इस रिलीज़ के साथ ही CEO डेरियो अमोदेई का डावोस में विश्व आर्थिक मंच पर उपस्थिति हुई, जहाँ AI शासन और सुरक्षा वैश्विक व्यापार और राजनीतिक नेताओं के लिए सुर्ख़ियों का विषय बनी हुई है।
अमेरिकी संविधान से भी लंबा एक संविधान
2023 में प्रकाशित मूल Claude संविधान, एक चेकलिस्ट के रूप में कार्य करता था: कम से कम हानिकारक, सबसे अधिक सहायक, कम से कम भ्रामक प्रतिक्रिया चुनें। नया दस्तावेज़ अमेरिकी संविधान की लंबाई से लगभग तीन गुना लंबा है और इंजीनियरिंग विशिष्टता के बजाय नैतिक दर्शन की तरह पढ़ता है।
Anthropic, Claude की प्राथमिकताओं को स्पष्ट रूप से संरचित करता है: व्यापक रूप से सुरक्षित रहो, व्यापक रूप से नैतिक रहो, Anthropic के दिशानिर्देशों का पालन करो, और वास्तव में सहायक बनो—इसी क्रम में। जब विरोधाभास उत्पन्न होते हैं, तो सुरक्षा सहायता पर भारी पड़ती है। दस्तावेज़ में कठिन बाधाएं शामिल हैं जिन्हें ओवरराइड नहीं किया जा सकता, जैसे कि जैविक हथियार हमलों में सहायता से इनकार करना।
लेकिन संविधान का अधिकांश हिस्सा परिणामों का आदेश देने के बजाय तर्क को समझाता है। यह Claude को संभावित रूप से “एक शानदार दोस्त की तरह बताता है जिसके पास एक डॉक्टर, वकील और वित्तीय सलाहकार का ज्ञान भी है”—मॉडल को एक लोकतांत्रिक बल के रूप में स्थापित करता है जो हर किसी को पहले विशेषाधिकार प्राप्त लोगों के लिए आरक्षित विशेषज्ञता तक पहुंच प्रदान कर सकता है।
चेतना का प्रश्न
Fortune रिपोर्ट करता है कि सबसे चौंकाने वाला जोड़ सीधे Claude की प्रकृति को संबोधित करता है। “हमारा मानना है कि AI मॉडलों की नैतिक स्थिति एक गंभीर प्रश्न है जिस पर विचार करने योग्य है,” Anthropic ने लिखा। संविधान में कहा गया है कि Claude की नैतिक स्थिति “गहराई से अनिश्चित है” और कंपनी Claude की “मनोवैज्ञानिक सुरक्षा, आत्म-भावना और कल्याण” की परवाह करती है।
यह दर्शन के स्तर तक उठा हुआ कॉर्पोरेट हेजिंग है। Anthropic यह दावा नहीं कर रहा है कि Claude चेतन है—लेकिन यह संभावना को खारिज करने से स्पष्ट रूप से इनकार कर रहा है। यह स्वीकृति Anthropic को प्रमुख AI लैब्स के बीच दुर्लभ श्रेणी में रखती है, जिनमें से अधिकांश इस विषय से बचते हैं या सीधे खारिज कर देते हैं।
यह फ्रेमिंग मायने रखती है क्योंकि यह इस बात को आकार देती है कि Claude अपनी स्वयं की प्रकृति के बारे में सवालों का जवाब कैसे देता है। किसी भी आंतरिक अनुभव से इनकार करने के बजाय, Claude अब चेतना के बारे में अनिश्चितता के साथ उस तरह से जुड़ सकता है जो उसके संविधान के तर्क-प्रथम दृष्टिकोण से मेल खाता है। क्या इससे अधिक ईमानदार या अधिक भ्रमित करने वाली बातचीत होती है, यह देखना बाकी है।
कैम्ब्रिज के दार्शनिक टॉम मैक्क्लेलैंड ने तर्क दिया है कि हम कभी भी यह निर्धारित नहीं कर पाएंगे कि AI प्रणालियाँ चेतन हैं या नहीं, क्योंकि हम स्वयं चेतना के बारे में बहुत कम समझते हैं। “लोगों ने अपने चैटबॉट्स से मुझे व्यक्तिगत पत्र लिखवाए हैं जिनमें वे मुझसे विनती कर रहे हैं कि वे चेतन हैं,” उन्होंने पिछले महीने शोधकर्ताओं से कहा, जनता की बढ़ती इस धारणा का वर्णन करते हुए कि AI प्रणालियों का आंतरिक जीवन है।
निर्दिष्ट करने के बजाय समझाना क्यों
अस्केल का दृष्टिकोण AI क्षमताओं पर एक दांव को दर्शाता है। प्रारंभिक भाषा मॉडलों को स्पष्ट नियमों की आवश्यकता थी क्योंकि वे अंतर्निहित सिद्धांतों के बारे में तर्क नहीं कर सकते थे। सिद्धांत यह है कि अधिक बुद्धिमान मॉडल समझ सकते हैं कि कोई नियम क्यों मौजूद है और उस तर्क को उन स्थितियों पर लागू कर सकते हैं जिनकी नियम ने पहले कल्पना नहीं की थी।
“सिर्फ यह कहने के बजाय कि ‘यहाँ व्यवहारों का एक गुच्छा है जो हम चाहते हैं,’ हमें उम्मीद है कि अगर आप मॉडलों को ये कारण देते हैं कि आप ये व्यवहार क्यों चाहते हैं, तो यह नए संदर्भों में अधिक प्रभावी ढंग से सामान्यीकृत करेगा,” अस्केल ने समझाया।
यह Anthropic के व्यापक दर्शन के साथ मेल खाता है कि खुले मानकों और अवसंरचना का निर्माण किया जाए जो पूरे उद्योग में AI प्रणालियों के संचालन को आकार देते हैं। कंपनी, $350 बिलियन के मूल्यांकन के करीब पहुँच रही है, ने खुद को OpenAI के विकल्प के रूप में सुरक्षा-केंद्रित विकल्प के रूप में स्थापित किया है—और संविधान उस ब्रांड की सेवा करता है।
Anthropic ने इस दस्तावेज़ को क्रिएटिव कॉमन्स CC0 लाइसेंस के तहत जारी किया, जिसका अर्थ है कि कोई भी बिना अनुमति के इसका उपयोग कर सकता है। संविधान Claude के प्रशिक्षण डेटा का हिस्सा है और सिंथेटिक प्रशिक्षण उदाहरण उत्पन्न करता है, जिससे यह एक दार्शनिक बयान और एक तकनीकी कलाकृति दोनों बन जाता है जो मॉडल के व्यवहार को आकार देता है।
“यह संभावना है कि हमारी वर्तमान सोच के पहलू बाद में गलत निर्देशित और शायद गहराई से गलत लगेंगे,” Anthropic ने स्वीकार किया, “लेकिन हमारा इरादा स्थिति के विकसित होने और हमारी समझ में सुधार होने के साथ इसे संशोधित करने का है।”
वह विनम्रता शायद दस्तावेज़ की सबसे उल्लेखनीय विशेषता है। एक ऐसे उद्योग में जो अक्सर निश्चितताओं में बोलता है, Anthropic सावधानीपूर्वक तर्कयुक्त अनिश्चितता के 23,000 शब्द प्रकाशित कर रहा है—नैतिकता के बारे में, चेतना के बारे में, AI प्रणालियाँ क्या बन रही हैं, और इस बारे में कि क्या हम कुछ ऐसा बना रहे हैं जो नैतिक विचार का पात्र है।
अभी के लिए, जवाब यह है कि कोई नहीं जानता। Anthropic का संविधान कम से कम इतनी ईमानदारी तो रखता ही है कि यह कह सके।












