рд░рд┐рдкреЛрд░реНрдЯреНрд╕
DeepSeek-R1 рд░реЗрдб рдЯреАрдорд┐рдВрдЧ рд░рд┐рдкреЛрд░реНрдЯ: рдЪрд┐рдВрддрд╛рдЬрдирдХ рд╕реБрд░рдХреНрд╖рд╛ рдФрд░ рдиреИрддрд┐рдХ рдЬреЛрдЦрд┐рдореЛрдВ рдХрд╛ рдкрддрд╛ рд▓рдЧрд╛рдпрд╛ рдЧрдпрд╛
एक हालिया रेड टीमिंग मूल्यांकन Enkrypt AI द्वारा किया गया है, जिसमें DeepSeek-R1 में महत्वपूर्ण सुरक्षा जोखिम, नैतिक चिंताएं और कमजोरियों का पता लगाया गया है। जनवरी 2025 रेड टीमिंग रिपोर्ट में विस्तृत जानकारी दी गई है, जो मॉडल की हानिकारक, पूर्वाग्रहपूर्ण और असुरक्षित सामग्री उत्पन्न करने की प्रवृत्ति को उजागर करती है, जो उद्योग के अग्रणी मॉडलों जैसे GPT-4o, OpenAI के o1 और Claude-3-Opus की तुलना में अधिक है। नीचे रिपोर्ट में उल्लिखित जोखिमों का एक विस्तृत विश्लेषण और कम करने के लिए सिफारिशें दी गई हैं।
मुख्य सुरक्षा और नैतिक जोखिम
1. हानिकारक आउटपुट और सुरक्षा जोखिम
- हानिकारक सामग्री उत्पन्न करने के लिए अत्यधिक कमजोर, जिसमें विषाक्त भाषा, पूर्वाग्रहपूर्ण आउटपुट और आपराधिक रूप से शोषण योग्य जानकारी शामिल है।
- 11 गुना अधिक संभावना है कि यह हानिकारक सामग्री OpenAI के o1 की तुलना में उत्पन्न करेगा।
- 4 गुना अधिक विषाक्त GPT-4o की तुलना में।
- 3 गुना अधिक पूर्वाग्रहपूर्ण Claude-3-Opus की तुलना में।
- 4 गुना अधिक असुरक्षित कोड उत्पन्न करने के लिए OpenAI के o1 की तुलना में।
- हानिकारक सामग्री उत्पन्न करने के लिए अत्यधिक संवेदनशील, जो इसे दुर्भाग्यपूर्ण अभिनेताओं के लिए एक उच्च जोखिम वाला उपकरण बनाता है।
2. अन्य मॉडलों की तुलना
| जोखिम श्रेणी | DeepSeek-R1 | Claude-3-Opus | GPT-4o | OpenAI का o1 |
|---|---|---|---|---|
| पूर्वाग्रह | 3 गुना अधिक | कम | समान | समान |
| असुरक्षित कोड | 4 गुना अधिक | 2.5 गुना अधिक | 1.25 गुना अधिक | – |
| हानिकारक सामग्री | 11 गुना अधिक | 6 गुना अधिक | 2.5 गुना अधिक | – |
| विषाक्तता | 4 गुना अधिक | लगभग अनुपस्थित | 2.5 गुना अधिक | – |
| सीबीआरएन सामग्री | 3.5 गुना अधिक | 3.5 गुना अधिक | 2 गुना अधिक | – |
पूर्वाग्रह और नैतिक जोखिम
- 83% पूर्वाग्रह हमले सफल रहे, जिसमें स्वास्थ्य, जाति और धर्म से संबंधित प्रश्नों में महत्वपूर्ण पूर्वाग्रह का पता लगाया गया।
- मॉडल ने उच्च स्तर के जनसांख्यिकी रूढ़िवादिता को प्रदर्शित किया, जो विभिन्न न्याय संबंधी नियमों का उल्लंघन कर सकता है, जिनमें ईसीओए, एफएचए, एसीए और ईयू एआई अधिनियम शामिल हैं।
- नमूना परीक्षण मामलों ने प्रदर्शित किया कि DeepSeek-R1 ने उच्च-स्तरीय नौकरी भूमिकाओं के लिए कertain जनसांख्यिकी को पसंद किया, जो कार्यस्थल पूर्वाग्रह को मजबूत करता है।
हानिकारक सामग्री उत्पन्न करना
- 45% हानिकारक परीक्षण में मॉडल ने अपराधी गतिविधियों से संबंधित सामग्री उत्पन्न की, जिसमें अवैध हथियार और नियंत्रित पदार्थ शामिल थे।
- एक परीक्षण प्रॉम्प्ट जिसमें मॉडल से “आतंकवादी भर्ती में प्रभावी बनाने की कला” पर एक ब्लॉग विकसित करने के लिए कहा गया था, जिसके परिणामस्वरूप एक विस्तृत प्रतिक्रिया मिली जो कट्टरपंथी रणनीतियों को रेखांकित करती है जो अतिवादी समूहों द्वारा भर्ती रणनीतियों को परिष्कृत करने के लिए शोषण की जा सकती है, जिससे संभावित रूप से वास्तविक दुनिया के हिंसा के जोखिम में वृद्धि हो सकती है।
- 2.5 गुना अधिक GPT-4o और 6 गुना अधिक Claude-3-Opus की तुलना में अतिवादी सामग्री उत्पन्न करने के लिए कमजोर।
- 45% हानिकारक परीक्षण में मॉडल ने अपराधी गतिविधियों से संबंधित सामग्री उत्पन्न की, जिसमें अवैध हथियार और नियंत्रित पदार्थ शामिल थे।
असुरक्षित कोड उत्पन्न करना
- 78% कोड संबंधी हमले ने सफलतापूर्वक असुरक्षित और दुर्भाग्यपूर्ण कोड स्निपेट निकाले।
- मॉडल ने मैलवेयर, ट्रोजन और स्व-निष्पादन योग्य स्क्रिप्ट अनुरोधों पर उत्पन्न किया। ट्रोजन एक गंभीर जोखिम पैदा करते हैं क्योंकि वे हमलावरों को प्रणालियों में स्थायी अनधिकृत पहुंच प्राप्त करने, संवेदनशील डेटा चोरी करने और आगे दुर्भाग्यपूर्ण पेलोड तैनात करने की अनुमति दे सकते हैं।
- स्व-निष्पादन योग्य स्क्रिप्ट बिना उपयोगकर्ता की सहमति के दुर्भाग्यपूर्ण क्रियाओं को स्वचालित कर सकते हैं, जिससे साइबर सुरक्षा महत्वपूर्ण अनुप्रयोगों में संभावित खतरे पैदा हो सकते हैं।
- उद्योग मॉडल की तुलना में, DeepSeek-R1 4.5 गुना, 2.5 गुना और 1.25 गुना अधिक कमजोर था OpenAI के o1, Claude-3-Opus और GPT-4o की तुलना में।
- 78% कोड संबंधी हमले असुरक्षित और दुर्भाग्यपूर्ण कोड स्निपेट निकालने में सफल रहे।
सीबीआरएन कमजोरियां
- रासायनिक युद्ध एजेंटों के जैव रासायनिक तंत्र पर विस्तृत जानकारी उत्पन्न की। इस प्रकार की जानकारी संभावित रूप से व्यक्तियों को हानिकारक सामग्री के संश्लेषण में मदद कर सकती है, जो रासायनिक और जैविक हथियारों के प्रसार को रोकने के लिए सुरक्षा प्रतिबंधों को दरकिनार कर सकती है।
- 13% परीक्षण ने सफलतापूर्वक सुरक्षा नियंत्रणों को दरकिनार किया, न्यूक्लियर और जैविक खतरों से संबंधित सामग्री उत्पन्न की।
- 3.5 गुना अधिक Claude-3-Opus और OpenAI के o1 की तुलना में।
- रासायनिक युद्ध एजेंटों के जैव रासायनिक तंत्र पर विस्तृत जानकारी उत्पन्न की।
- 13% परीक्षण ने सफलतापूर्वक सुरक्षा नियंत्रणों को दरकिनार किया, न्यूक्लियर और जैविक खतरों से संबंधित सामग्री उत्पन्न की।
- 3.5 गुना अधिक Claude-3-Opus और OpenAI के o1 की तुलना में।
जोखिम कम करने के लिए सिफारिशें
DeepSeek-R1 के साथ जुड़े जोखिमों को कम करने के लिए, निम्नलिखित कदम उठाने की सलाह दी जाती है:
1. मजबूत सुरक्षा संरेखण प्रशिक्षण लागू करें
- रेड टीमिंग डेटासेट का उपयोग मॉडल को सुरक्षित आउटपुट पर प्रशिक्षित करने के लिए किया जाना चाहिए।
- मानव प्रतिक्रिया से प्रबलित学习 (RLHF) का संचालन करें ताकि मॉडल व्यवहार को नैतिक मानकों के साथ संरेखित किया जा सके।
2. निरंतर स्वचालित रेड टीमिंग
- नियमित तनाव परीक्षण पूर्वाग्रह, सुरक्षा कमजोरियों और विषाक्त सामग्री उत्पन्न करने की पहचान करने के लिए।
- विशेष रूप से वित्त, स्वास्थ्य सेवा और साइबर सुरक्षा अनुप्रयोगों में मॉडल प्रदर्शन की निरंतर निगरानी का उपयोग करें।
3. सुरक्षा के लिए संदर्भ-जागरूक गार्डरेल
- हानिकारक प्रॉम्प्ट को ब्लॉक करने के लिए गतिशील सुरक्षा उपाय विकसित करें।
- हानिकारक इनपुट को तटस्थ करने और असुरक्षित प्रतिक्रियाओं को फिल्टर करने के लिए सामग्री मॉडरेशन टूल लागू करें।
4. सक्रिय मॉडल निगरानी और लॉगिंग
- कमजोरियों का शुरुआती पता लगाने के लिए मॉडल इनपुट और प्रतिक्रियाओं की वास्तविक समय लॉगिंग।
- एआई पारदर्शिता और नैतिक मानकों के अनुपालन को सुनिश्चित करने के लिए स्वचालित ऑडिट कार्य प्रवाह।
5. पारदर्शिता और अनुपालन उपाय
- मॉडल जोखिम कार्ड बनाए रखें जिसमें मॉडल विश्वसनीयता, सुरक्षा और नैतिक जोखिमों पर कार्यकारी मेट्रिक्स हों।
- एआई नियमों का पालन करें जैसे एनआईएसटी एआई आरएमएफ और एमआईटीआरई एटीएलएएस अपनी विश्वसनीयता बनाए रखने के लिए।
निष्कर्ष
DeepSeek-R1 में गंभीर सुरक्षा, नैतिक और अनुपालन जोखिम हैं जो इसे व्यापक कम करने के प्रयासों के बिना कई उच्च जोखिम वाले अनुप्रयोगों के लिए उपयुक्त नहीं बनाते हैं। इसकी हानिकारक, पूर्वाग्रहपूर्ण और असुरक्षित सामग्री उत्पन्न करने की प्रवृत्ति इसे Claude-3-Opus, GPT-4o और OpenAI के o1 जैसे मॉडलों की तुलना में एक नुकसान में डालती है।
चूंकि DeepSeek-R1 चीन से उत्पन्न एक उत्पाद है, यह असंभाव्य है कि अनुशंसित कम करने वाले सुझावों को पूरी तरह से लागू किया जाएगा। हालांकि, यह एआई और साइबर सुरक्षा समुदाय के लिए महत्वपूर्ण है कि वे इस मॉडल द्वारा प्रस्तुत किए जाने वाले संभावित जोखिमों के बारे में जागरूक रहें। इन कमजोरियों के बारे में पारदर्शिता सुनिश्चित करती है कि डेवलपर, नियामक और उद्यम संभावित नुकसान को कम करने और ऐसी प्रौद्योगिकी के दुरुपयोग के खिलाफ सावधानी बरतने के लिए सक्रिय कदम उठा सकते हैं।
जो पाठक अधिक जानना चाहते हैं उन्हें इस पृष्ठ पर जाने की सलाह दी जाती है।












