विचार नेता
जहां AI सुरक्षा मानक रुकते हैं — और रनटाइम सुरक्षा शुरू होनी चाहिए

AI की सुरक्षा जोखिमों के सभी चर्चाओं के बीच, एक मुद्दा जो अनदेखा सा लगता है वह यह है: तथ्य यह है कि AI सिस्टम केवल अपनी सबसे मूल्यवान संपत्तियों — मॉडल और डेटा — को उजागर करके ही कार्य करते हैं।
पारंपरिक सॉफ़्टवेयर के विपरीत, AI केवल पूर्वनिर्धारित तर्क को निष्पादित नहीं करता है। यह लगातार स्वामित्व वाले मॉडलों को संवेदनशील इनपुट के साथ मिलाकर आउटपुट उत्पन्न करता है, अक्सर उस इन्फ्रास्ट्रक्चर पर जो कम्प्यूटेशन की सुरक्षा के लिए डिज़ाइन नहीं किया गया था।
इस तरह, पारंपरिक सुरक्षा अपर्याप्त रह जाती है। एन्क्रिप्शन तब प्रभावी होता है जब डेटा संग्रहीत हो या नेटवर्क पर प्रसारित हो रहा हो, लेकिन तब नहीं जब डेटा प्रोसेस या संचालित किया जा रहा हो। विशेष रूप से AI के लिए, ख़तरा तब उत्पन्न होता है जब एक मॉडल तैनात किया जाता है। इसके पैरामीटर मेमोरी में लोड होते हैं, आरंभ किए जाते हैं, और बड़े पैमाने पर चलाए जाते हैं – वह बिंदु जहां एन्क्रिप्शन रुक जाता है – जिससे यह संभावित अनधिकृत पहुंच के लिए उजागर हो जाता है। इनफेरेंस के दौरान, संवेदनशील डेटा उसी उजागर स्थान से होकर गुजरता है। परिणाम एक अत्यधिक संवेदनशील जोखिम सतह होती है: AI सिस्टम जो सुरक्षित दिख सकते हैं – लेकिन वास्तव में सबसे महत्वपूर्ण क्षणों में असुरक्षित होते हैं।
नेशनल इंस्टीट्यूट ऑफ स्टैंडर्ड्स एंड टेक्नोलॉजी (NIST), यूरोपीय संघ एजेंसी फॉर साइबरसिक्योरिटी (पूर्व में यूरोपियन नेटवर्क एंड इनफॉर्मेशन सिक्योरिटी एजेंसी, या ENISA के नाम से जानी जाती थी), और ओपन वेब एप्लिकेशन सिक्योरिटी प्रोजेक्ट (OWASP) जैसे मानक निकायों ने इस क्षेत्र को चिह्नित करना शुरू कर दिया है। वे जोखिमों का वर्णन करते हैं, कमजोरियों के नाम बताते हैं, और शासन सिद्धांतों की रूपरेखा प्रस्तुत करते हैं। लेकिन वे यह निर्धारित करने से रुक जाते हैं कि निष्पादन शुरू होने के बाद बौद्धिक संपदा के रूप में मॉडलों और गोपनीय संपत्ति के रूप में डेटा की सुरक्षा कैसे की जाए। उस अंतर को पाटने के लिए AI सुरक्षा पर पुनर्विचार की आवश्यकता है–न कि एक अनुपालन अभ्यास के रूप में, बल्कि स्वयं कम्प्यूटेशन की समस्या के रूप में। यहीं पर एन्क्रिप्शन-इन-यूज़, या एंड-टू-एंड एन्क्रिप्शन, एक भूमिका निभाता है।
आधुनिक AI सुरक्षा में अंधा स्थान
अधिकांश AI सुरक्षा चर्चाएं अभी भी परिचित ज़मीन पर घूमती हैं: प्रशिक्षण डेटा शासन, पहुंच नियंत्रण, API मॉनिटरिंग, और जिम्मेदार उपयोगकर्ता नीतियां। ये आवश्यक हैं। हालांकि, इनमें से कोई भी तैनाती के बाद क्या होता है, इस पर ध्यान नहीं देता, जब एक मॉडल रिपॉजिटरी छोड़कर एक जीवंत प्रणाली बन जाता है।
एक बार तैनात होने के बाद, एक मॉडल के पैरामीटर अब अमूर्त कलाकृतियां नहीं रह जाते। वे लाइव, मेमोरी-निवासी संपत्तियां होते हैं, जिन्हें इनफेरेंस के दौरान लगातार एक्सेस किया जाता है और अक्सर साझा AI सेवाओं के माध्यम से कई टेनेंट्स या ग्राहकों द्वारा उपयोग किया जाता है। यह उजागरता किसी भी इनफेरेंस अनुरोध से पहले होती है, जिससे संवेदनशील इनपुट और बाहरी रूप से देखे जा सकने वाले व्यवहार को शामिल करके जोखिम बढ़ जाता है।
मॉडल सुरक्षा को एक प्री-डिप्लॉयमेंट चिंता और इनफेरेंस सुरक्षा को एक रनटाइम चिंता के रूप में मानना मुद्दे से चूक जाता है। वास्तविक प्रणालियों में, ये जोखिम ओवरलैप होते हैं। मॉडल और डेटा आरंभीकरण, निष्पादन और आउटपुट के दौरान उजागर होते हैं। स्टोरेज नियंत्रणों से शुरू और समाप्त होने वाली सुरक्षा इन उजागरताओं का समाधान नहीं कर पाती।
NIST क्या सही करता है — और कहां रुकता है
NIST AI जोखिम प्रबंधन ढांचा AI जोखिम प्रबंधित करने की कोशिश कर रहे संगठनों के लिए एक आधारशिला बन गया है। इसकी संरचना—शासन, मानचित्रण, मापन, प्रबंधन—AI जीवनचक्र में जवाबदेही, संदर्भ, प्रभाव और शमन के बारे में सोचने का एक अनुशासित तरीका प्रदान करती है।
NIST विशेष रूप से क्या अच्छा करता है, वह है AI जोखिम को आकस्मिक के बजाय प्रणालीगत के रूप में प्रस्तुत करना। AI विफलताएं शायद ही कभी एकल-बिंदु घटनाएं होती हैं; वे मॉडल, डेटा, लोगों और इन्फ्रास्ट्रक्चर के बीच परस्पर क्रिया से उत्पन्न होती हैं। वह प्रस्तुतीकरण आवश्यक है।
जहां ढांचा कम पड़ता है, वह है यह निर्धारित करने में विफल रहना कि सिस्टम लाइव होने के बाद उच्च-मूल्य वाली AI संपत्तियों की सुरक्षा कैसे की जाती है। मॉडल पैरामीटरों को डिज़ाइन-टाइम कलाकृतियों के बजाय रनटाइम संपत्तियों के रूप में अंतर्निहित रूप से माना जाता है। निष्पादन वातावरण को पर्याप्त भरोसेमंद मान लिया जाता है।
व्यवहार में, मॉडल पैरामीटर अक्सर किसी संगठन के स्वामित्व वाली सबसे मूल्यवान बौद्धिक संपदा होते हैं। उन्हें मेमोरी में लोड किया जाता है, नोड्स में कॉपी किया जाता है, कैश किया जाता है और पुनः उपयोग किया जाता है। यदि AI जोखिम प्रबंधन तैनाती और निष्पादन के दौरान मॉडलों की गोपनीयता का हिसाब नहीं रखता है, तो एक महत्वपूर्ण संपत्ति जोखिम सीमा के बाहर रह जाती है, जैसे एक बैठा हुआ बतख।
ENISA और AI-विशिष्ट खतरों की वास्तविकता
AI साइबरसुरक्षा पर ENISA का कार्य चर्चा को और आगे बढ़ाता है। इसका बहुस्तरीय ढांचा पारंपरिक इन्फ्रास्ट्रक्चर सुरक्षा और AI-विशिष्ट जोखिमों के बीच अंतर करता है, यह स्वीकार करते हुए कि AI सिस्टम पारंपरिक सॉफ़्टवेयर से अलग व्यवहार करते हैं—और अलग तरह से विफल होते हैं।
यह महत्वपूर्ण क्यों है? AI ऐसे खतरे पेश करता है जो मौजूदा नियंत्रणों में साफ-साफ फिट नहीं बैठते: मॉडल निष्कर्षण, पैरामीटर रिसाव, सह-किरायेदारी उजागरता, और निष्पादन के दौरान छेड़छाड़। इन जोखिमों के लिए विदेशी हमलावरों की आवश्यकता नहीं होती। वे स्वाभाविक रूप से तब उत्पन्न होते हैं जब उच्च-मूल्य वाले मॉडल साझा या बाहरी रूप से प्रबंधित वातावरण में चलते हैं।
ENISA का ढांचा अंतर्निहित रूप से पहचानता है कि AI को सुरक्षित करने का मतलब है व्यवहार को सुरक्षित करना, न कि केवल कोड को। लेकिन अधिकांश मानकों की तरह, यह इस बात पर केंद्रित है कि क्या माना जाना चाहिए, न कि इस बात पर कि मॉडल चलने के बाद सुरक्षा तकनीकी रूप से कैसे लागू की जाती है।
OWASP और प्रेक्षणीय बुद्धिमत्ता की कीमत
लार्ज लैंग्वेज मॉडल एप्लिकेशन के लिए OWASP का टॉप 10 एक अधिक ठोस दृष्टिकोण प्रदान करता है कि वास्तविक दुनिया में AI सिस्टम कैसे टूटते हैं। प्रॉम्प्ट इंजेक्शन, संवेदनशील सूचना प्रकटीकरण, एम्बेडिंग रिसाव, अत्यधिक आउटपुट पारदर्शिता—ये सैद्धांतिक चिंताएं नहीं हैं। ये शक्तिशाली मॉडलों को यह सीमित किए बिना तैनात करने के उपोत्पाद हैं कि वे क्या प्रकट करते हैं।
हालांकि इन मुद्दों को अक्सर एप्लिकेशन-लेयर समस्याओं के रूप में प्रस्तुत किया जाता है, लेकिन उनके परिणाम गहरे होते हैं। मॉडल व्यवहार के बार-बार उजागर होने से प्रभावी क्लोनिंग हो सकती है; खराब रूप से अलग-थलग एम्बेडिंग संरचना प्रकट कर सकती है; और इनफेरेंस दुरुपयोग मॉडल प्रतिकृति का मार्ग बन जाता है।
OWASP की वर्गीकरण एक बात स्पष्ट करती है: AI की सुरक्षा केवल खराब इनपुट रोकने के बारे में नहीं है। यह इस बारे में है कि मॉडल क्या उजागर करते हैं—आंतरिक और बाहरी रूप से—एक बार जब वे परिचालन में आ जाते हैं।
एक साझा निष्कर्ष, एक अधूरा काम
NIST, ENISA, और OWASP में, मूलभूत बातों पर व्यापक सहमति है:
- AI जोखिम जीवनचक्र को फैलता है
- AI सिस्टम नई खतरा श्रेणियां पेश करते हैं
- मॉडल और डेटा उच्च-मूल्य वाली संपत्तियां हैं
- रनटाइम उजागरता अपरिहार्य है
हालांकि, इन ढांचों में जिस चीज की कमी है, वह है मॉडलों के तैनात होने और कम्प्यूटेशन शुरू होने के बाद गोपनीयता लागू करने का एक तंत्र। यह चूक कोई दोष नहीं है, क्योंकि मानक इराद












