рд╡рд┐рдЪрд╛рд░ рдиреЗрддрд╛
рдЬрд╣рд╛рдВ рдПрдЖрдИ рд╕реБрд░рдХреНрд╖рд╛ рдорд╛рдирдХ рд░реБрдХ рдЬрд╛рддреЗ рд╣реИрдВ тАФ рдФрд░ рд░рдирдЯрд╛рдЗрдо рд╕реБрд░рдХреНрд╖рд╛ рдХреЛ рд╢реБрд░реВ рдХрд░рдирд╛ рд╣реЛрдЧрд╛

एआई के सुरक्षा जोखिमों के बारे में इतनी चर्चा के साथ, एक मुद्दा जो लगता है कि अनदेखा किया जा रहा है वह यह है: यह तथ्य कि एआई सिस्टम केवल अपने सबसे मूल्यवान संपत्तियों — मॉडल और डेटा को उजागर करके कार्य करते हैं।
पारंपरिक सॉफ्टवेयर के विपरीत, एआई पूर्वनिर्धारित तर्क को निष्पादित नहीं करता है। यह लगातार प्रोप्राइटरी मॉडल को संवेदनशील इनपुट के साथ मिलाता है ताकि आउटपुट उत्पन्न किया जा सके, अक्सर ऐसे बुनियादी ढांचे पर जो गणना की रक्षा के लिए डिज़ाइन नहीं किया गया है।
इस तरह, पारंपरिक सुरक्षा कम पड़ जाती है। एन्क्रिप्शन तब प्रभावी होता है जब डेटा संग्रहीत किया जाता है या नेटवर्क पर प्रेषित किया जाता है, लेकिन जब डेटा संसाधित किया जाता है या संचालित किया जाता है तो नहीं। एआई के लिए विशेष रूप से, खतरा तब उत्पन्न होता है जब एक मॉडल तैनात किया जाता है। इसके पैरामीटर मेमोरी में लोड किए जाते हैं, आरंभीकृत किए जाते हैं और पैमाने पर अभ्यास किया जाता है – बिंदु जिस पर एन्क्रिप्शन बंद हो जाता है – इसे संभावित अनधिकृत पहुंच के लिए उजागर करता है। अनुमान के दौरान, संवेदनशील डेटा उसी उजागर स्थान से होकर गुजरता है। परिणाम एक अत्यधिक कमजोर जोखिम सतह है: एआई सिस्टम जो सुरक्षित दिखाई दे सकते हैं – लेकिन सबसे महत्वपूर्ण क्षणों में वास्तव में असुरक्षित हैं।
मानक निकाय जैसे कि नेशनल इंस्टीट्यूट ऑफ स्टैंडर्ड्स एंड टेक्नोलॉजी (एनआईएसटी), यूरोपीय संघ एजेंसी फॉर साइबर सुरक्षा (पूर्व में यूरोपीय नेटवर्क और सूचना सुरक्षा एजेंसी, या ईएनआईएसए के रूप में जाना जाता था), और ओपन वेब एप्लिकेशन सुरक्षा परियोजना (ओडब्ल्यूएएसपी) ने इस क्षेत्र को चार्ट करना शुरू कर दिया है। वे जोखिमों का वर्णन करते हैं, कमजोरियों का नाम देते हैं, और शासन सिद्धांतों का रूपरेखा तैयार करते हैं। लेकिन वे इस बात का वर्णन करने से रुक जाते हैं कि निष्पादन शुरू होने के बाद बौद्धिक संपदा के रूप में मॉडल और गोपनीय संपत्ति के रूप में डेटा की रक्षा कैसे की जाए। इस अंतर को बंद करने के लिए एआई सुरक्षा को फिर से सोचने की आवश्यकता है – न कि एक अनुपालन अभ्यास के रूप में, बल्कि गणना स्वयं के रूप में। यह वह जगह है जहां एन्क्रिप्शन-इन-यूज़, या एंड-टू-एंड एन्क्रिप्शन, एक भूमिका निभाता है।
आधुनिक एआई सुरक्षा में अंधा धब्बा
अधिकांश एआई सुरक्षा वार्ता अभी भी परिचित जमीन पर घूमती है: प्रशिक्षण डेटा शासन, पहुंच नियंत्रण, एपीआई निगरानी, और जिम्मेदार उपयोगकर्ता नीतियां। ये आवश्यक हैं। हालांकि, उनमें से कोई भी तैनाती के बाद क्या होता है, जब एक मॉडल रिपॉजिटरी से बाहर निकलता है और एक जीवित प्रणाली बन जाता है, इसका समाधान नहीं करता है।
एक बार तैनात होने के बाद, एक मॉडल के पैरामीटर अब अमूर्त कलाकृतियां नहीं हैं। वे जीवित, मेमोरी-निवास संपत्तियां हैं, जो लगातार अनुमान के दौरान एक्सेस की जाती हैं और अक्सर साझा की जाने वाली एआई सेवाओं के माध्यम से कई किरायेदारों या ग्राहकों द्वारा उपयोग की जाती हैं। यह उजागर होने से पहले ही होता है कि कोई भी अनुमान अनुरोध किया जाता है, जिससे जोखिम को संवेदनशील इनपुट और बाहरी रूप से दिखाई देने वाले व्यवहार के परिचय द्वारा बढ़ा दिया जाता है।
मॉडल सुरक्षा को पूर्व-तैनाती चिंता के रूप में और अनुमान सुरक्षा को रनटाइम चिंता के रूप में मानना बात को छोड़ देता है। वास्तविक प्रणालियों में, ये जोखिम ओवरलैप करते हैं। मॉडल और डेटा प्रारंभिकरण, निष्पादन, और आउटपुट के माध्यम से उजागर होते हैं। स्टोरेज नियंत्रणों के साथ शुरू और समाप्त होने वाली सुरक्षा इन उजागरता को संबोधित नहीं करती है।
एनआईएसटी क्या सही है — और जहां यह रुक जाता है
एनआईएसटी एआई जोखिम प्रबंधन फ्रेमवर्क संगठनों के लिए एआई जोखिम का प्रबंधन करने के लिए एक आधार बन गया है। इसकी संरचना — शासन, मानचित्र, माप, प्रबंधन — एआई जीवन चक्र में जिम्मेदारी, संदर्भ, प्रभाव, और शमन के माध्यम से सोचने का एक अनुशासित तरीका प्रदान करता है।
एनआईएसटी जो विशेष रूप से अच्छा करता है वह एआई जोखिम को दुर्घटनावश नहीं बल्कि प्रणालीगत रूप से फ्रेम करता है। एआई विफलताएं शायद ही कभी एकल-बिंदु घटनाएं होती हैं; वे मॉडल, डेटा, लोगों, और बुनियादी ढांचे के बीच परस्पर क्रिया से उत्पन्न होती हैं। यह फ्रेमिंग आवश्यक है।
जहां फ्रेमवर्क कम पड़ जाता है वह है उच्च-मूल्य एआई संपत्तियों की रक्षा के लिए एक तंत्र की कमी एक बार सिस्टम लाइव हो जाते हैं। मॉडल पैरामीटर को डिज़ाइन-समय कलाकृतियों के रूप में निहित रूप से माना जाता है, न कि रनटाइम संपत्ति के रूप में। निष्पादन वातावरण को पर्याप्त रूप से विश्वसनीय माना जाता है।
व्यवहार में, मॉडल पैरामीटर अक्सर एक संगठन की सबसे मूल्यवान बौद्धिक संपदा होते हैं। वे मेमोरी में लोड किए जाते हैं, नोड्स के माध्यम से कॉपी किए जाते हैं, कैश किए जाते हैं, और पुन: उपयोग किए जाते हैं। यदि एआई जोखिम प्रबंधन तैनाती और निष्पादन के दौरान मॉडल की गोपनीयता के लिए खाता नहीं देता है, तो एक महत्वपूर्ण संपत्ति जोखिम सीमा से बाहर रहती है, एक बैठा हुआ बत्तख की तरह।
ईएनआईएसए और एआई-विशिष्ट खतरों की वास्तविकता
ईएनआईएसए का एआई साइबर सुरक्षा पर काम बातचीत को आगे बढ़ाता है। इसका बहुस्तरीय फ्रेमवर्क पारंपरिक बुनियादी ढांचे की सुरक्षा और एआई-विशिष्ट जोखिमों के बीच अंतर करता है, स्वीकार करता है कि एआई सिस्टम व्यवहार करते हैं — और पारंपरिक सॉफ्टवेयर की तुलना में विफल होते हैं।
यह महत्वपूर्ण क्यों है? एआई ऐसे खतरे पेश करता है जो मौजूदा नियंत्रणों में फिट नहीं होते हैं: मॉडल निकासी, पैरामीटर रिसाव, सह-टेनेंसी उजागरता, और निष्पादन के दौरान छेड़छाड़। ये जोखिमों को विदेशी हमलावरों की आवश्यकता नहीं है। वे तब प्राकृतिक रूप से उत्पन्न होते हैं जब उच्च-मूल्य वाले मॉडल साझा या बाहरी रूप से प्रबंधित वातावरण में चलते हैं।
ईएनआईएसए के फ्रेमवर्क में स्वीकार किया जाता है कि एआई को सुरक्षित करने का अर्थ है व्यवहार की सुरक्षा, न कि केवल कोड। लेकिन अधिकांश मानकों की तरह, यह इस बात पर ध्यान केंद्रित करता है कि क्या विचार किया जाना चाहिए, न कि मॉडल चलने के बाद तकनीकी रूप से सुरक्षा कैसे लागू की जाए।
ओडब्ल्यूएएसपी और दिखाई देने वाली बुद्धिमत्ता की लागत
ओडब्ल्यूएएसपी के लार्ज लैंग्वेज मॉडल एप्लिकेशन के लिए शीर्ष 10 वास्तविक दुनिया में एआई सिस्टम के टूटने का एक अधिक ठोस दृश्य प्रदान करता है। प्रॉम्प्ट इंजेक्शन, संवेदनशील जानकारी प्रकटीकरण, एम्बेडिंग रिसाव, अत्यधिक आउटपुट पारदर्शिता — ये सैद्धांतिक चिंताएं नहीं हैं। वे शक्तिशाली मॉडल को प्रतिबंधित किए बिना तैनात करने के परिणाम हैं कि वे क्या प्रकट करते हैं।
जबकि ये मुद्दे अक्सर एप्लिकेशन-परत की समस्याओं के रूप में फ्रेम किए जाते हैं, उनके परिणाम गहरे हैं। मॉडल व्यवहार की बार-बार उजागरता मॉडल क्लोनिंग का कारण बन सकती है; खराब अलगाव वाले एम्बेडिंग संरचना का खुलासा कर सकते हैं; और अनुमान दुरुपयोग मॉडल प्रतिलिपि के लिए एक मार्ग बन जाता है।
ओडब्ल्यूएएसपी की टैक्सोनॉमी एक बात स्पष्ट करती है: एआई की रक्षा करना केवल बुरे इनपुट को रोकने के बारे में नहीं है। यह मॉडल को सीमित करने के बारे में है — आंतरिक और बाहरी दोनों — एक बार वे संचालित होने लगते हैं।
एक साझा निष्कर्ष, एक अधूरा काम
एनआईएसटी, ईएनआईएसए, और ओडब्ल्यूएएसपी के माध्यम से, मूल बातों पर व्यापक सहमति है:
- एआई जोखिम जीवन चक्र में फैला हुआ है
- एआई सिस्टम नए खतरे की श्रेणियां पेश करते हैं
- मॉडल और डेटा उच्च-मूल्य संपत्ति हैं
- रनटाइम उजागरता टाली नहीं जा सकती
हालांकि, इन फ्रेमवर्क में जो कमी है वह यह है कि एक बार मॉडल तैनात किए जाने और गणना शुरू होने के बाद गोपनीयता को लागू करने के लिए एक तंत्र की कमी है। यह कमी एक दोष नहीं है, क्योंकि मानक इरादे और दायरे को परिभाषित करते हैं। कार्यान्वयन आमतौर पर सिस्टम डिज़ाइनर को छोड़ दिया जाता है।
लेकिन वे एक महत्वपूर्ण अंतर छोड़ते हैं — जो एआई सिस्टम के पैमाने पर बढ़ता है।
एन्क्रिप्शन-इन-यूज़ समीकरण को बदलता है
एन्क्रिप्शन-इन-यूज़ सुरक्षा मॉडल को बदल देता है। इसके बजाय यह मान लेना कि डेटा और मॉडल को उपयोगी होने के लिए उजागर किया जाना चाहिए, यह गणना को ऐसी चीज़ के रूप में मानता है जिसकी रक्षा की जा सकती है।
व्यावहारिक शब्दों में, इसका अर्थ है:
- मॉडल तैनाती, प्रारंभिकरण, और निष्पादन के दौरान एन्क्रिप्टेड रहते हैं
- इनपुट निष्पादन वातावरण के लिए कभी भी मूल पाठ में दिखाई नहीं देते
- मध्यवर्ती राज्यों का निरीक्षण या संशोधन नहीं किया जा सकता
- बुनियादी ढांचे को अबImplicit रूप से विश्वसनीय माना जाने की आवश्यकता नहीं है
यह शासन फ्रेमवर्क या एप्लिकेशन-परत नियंत्रण को प्रतिस्थापित नहीं करता है — यह उन्हें संचालित करता है। यह जोखिम सिद्धांतों को जब एआई सिस्टम सबसे अधिक कमजोर होते हैं तो लागू करने योग्य गारंटी में बदलता है।
दूसरे शब्दों में, एन्क्रिप्शन-इन-यूज़ एआई नीति और एआई वास्तविकता के बीच लापता परत है।
जब शासन समाप्त होता है और निष्पादन शुरू होता है: एआई गणना की सुरक्षा
एआई सुरक्षा रनटाइम पर टूट जाती है। एक बार तैनात होने के बाद, एआई मॉडल और संवेदनशील डेटा को कार्य करने के लिए मेमोरी में उजागर किया जाना चाहिए, जिससे एक जोखिम सतह बनती है जिसकी रक्षा के लिए पारंपरिक नियंत्रण — विश्राम में एन्क्रिप्शन, संचरण में एन्क्रिप्शन, और शासन फ्रेमवर्क — डिज़ाइन नहीं किए गए थे।
एनआईएसटी, ईएनआईएसए, और ओडब्ल्यूएएसपी जैसे मानक निकायों ने एआई जोखिम, जिम्मेदारी, और दुरुपयोग को परिभाषित करने में महत्वपूर्ण प्रगति की है। लेकिन उनका मार्गदर्शन मुख्य रूप से मॉडल को डिज़ाइन-समय कलाकृतियों के रूप में मानता है और मान लेता है कि निष्पादन वातावरण पर विश्वास किया जा सकता है। व्यवहार में, मॉडल पैरामीटर और संवेदनशील इनपुट निरंतर एक्सेस किए जाते हैं, पुन: उपयोग किए जाते हैं, और अक्सर साझा या बाहरी रूप से प्रबंधित वातावरण में संसाधित किए जाते हैं।
इस अंतर को बंद करने के लिए एआई सुरक्षा को फिर से सोचने की आवश्यकता है — न कि एक अनुपालन अभ्यास के रूप में, बल्कि गणना स्वयं के रूप में सुरक्षा की समस्या के रूप में। जब मॉडल जीवित होते हैं, डेटा उपयोग में होता है, और उजागरता टाली नहीं जा सकती, तो एन्क्रिप्शन-इन-यूज़ एआई मॉडल और संवेदनशील इनपुट को सुरक्षित रखने के लिए एक व्यवहार्य तरीका प्रदान करता है एआई जीवन चक्र के हर चरण में।












