Connect with us

जहां AI सुरक्षा मानक रुकते हैं — और रनटाइम सुरक्षा शुरू होनी चाहिए

विचार नेता

जहां AI सुरक्षा मानक रुकते हैं — और रनटाइम सुरक्षा शुरू होनी चाहिए

mm

AI की सुरक्षा जोखिमों के सभी चर्चाओं के बीच, एक मुद्दा जो अनदेखा सा लगता है वह यह है: तथ्य यह है कि AI सिस्टम केवल अपनी सबसे मूल्यवान संपत्तियों — मॉडल और डेटा — को उजागर करके ही कार्य करते हैं।

पारंपरिक सॉफ़्टवेयर के विपरीत, AI केवल पूर्वनिर्धारित तर्क को निष्पादित नहीं करता है। यह लगातार स्वामित्व वाले मॉडलों को संवेदनशील इनपुट के साथ मिलाकर आउटपुट उत्पन्न करता है, अक्सर उस इन्फ्रास्ट्रक्चर पर जो कम्प्यूटेशन की सुरक्षा के लिए डिज़ाइन नहीं किया गया था।

इस तरह, पारंपरिक सुरक्षा अपर्याप्त रह जाती है। एन्क्रिप्शन तब प्रभावी होता है जब डेटा संग्रहीत हो या नेटवर्क पर प्रसारित हो रहा हो, लेकिन तब नहीं जब डेटा प्रोसेस या संचालित किया जा रहा हो। विशेष रूप से AI के लिए, ख़तरा तब उत्पन्न होता है जब एक मॉडल तैनात किया जाता है। इसके पैरामीटर मेमोरी में लोड होते हैं, आरंभ किए जाते हैं, और बड़े पैमाने पर चलाए जाते हैं – वह बिंदु जहां एन्क्रिप्शन रुक जाता है – जिससे यह संभावित अनधिकृत पहुंच के लिए उजागर हो जाता है। इनफेरेंस के दौरान, संवेदनशील डेटा उसी उजागर स्थान से होकर गुजरता है। परिणाम एक अत्यधिक संवेदनशील जोखिम सतह होती है: AI सिस्टम जो सुरक्षित दिख सकते हैं – लेकिन वास्तव में सबसे महत्वपूर्ण क्षणों में असुरक्षित होते हैं।

नेशनल इंस्टीट्यूट ऑफ स्टैंडर्ड्स एंड टेक्नोलॉजी (NIST), यूरोपीय संघ एजेंसी फॉर साइबरसिक्योरिटी (पूर्व में यूरोपियन नेटवर्क एंड इनफॉर्मेशन सिक्योरिटी एजेंसी, या ENISA के नाम से जानी जाती थी), और ओपन वेब एप्लिकेशन सिक्योरिटी प्रोजेक्ट (OWASP) जैसे मानक निकायों ने इस क्षेत्र को चिह्नित करना शुरू कर दिया है। वे जोखिमों का वर्णन करते हैं, कमजोरियों के नाम बताते हैं, और शासन सिद्धांतों की रूपरेखा प्रस्तुत करते हैं। लेकिन वे यह निर्धारित करने से रुक जाते हैं कि निष्पादन शुरू होने के बाद बौद्धिक संपदा के रूप में मॉडलों और गोपनीय संपत्ति के रूप में डेटा की सुरक्षा कैसे की जाए। उस अंतर को पाटने के लिए AI सुरक्षा पर पुनर्विचार की आवश्यकता है–न कि एक अनुपालन अभ्यास के रूप में, बल्कि स्वयं कम्प्यूटेशन की समस्या के रूप में। यहीं पर एन्क्रिप्शन-इन-यूज़, या एंड-टू-एंड एन्क्रिप्शन, एक भूमिका निभाता है।

आधुनिक AI सुरक्षा में अंधा स्थान

अधिकांश AI सुरक्षा चर्चाएं अभी भी परिचित ज़मीन पर घूमती हैं: प्रशिक्षण डेटा शासन, पहुंच नियंत्रण, API मॉनिटरिंग, और जिम्मेदार उपयोगकर्ता नीतियां। ये आवश्यक हैं। हालांकि, इनमें से कोई भी तैनाती के बाद क्या होता है, इस पर ध्यान नहीं देता, जब एक मॉडल रिपॉजिटरी छोड़कर एक जीवंत प्रणाली बन जाता है।

एक बार तैनात होने के बाद, एक मॉडल के पैरामीटर अब अमूर्त कलाकृतियां नहीं रह जाते। वे लाइव, मेमोरी-निवासी संपत्तियां होते हैं, जिन्हें इनफेरेंस के दौरान लगातार एक्सेस किया जाता है और अक्सर साझा AI सेवाओं के माध्यम से कई टेनेंट्स या ग्राहकों द्वारा उपयोग किया जाता है। यह उजागरता किसी भी इनफेरेंस अनुरोध से पहले होती है, जिससे संवेदनशील इनपुट और बाहरी रूप से देखे जा सकने वाले व्यवहार को शामिल करके जोखिम बढ़ जाता है।

मॉडल सुरक्षा को एक प्री-डिप्लॉयमेंट चिंता और इनफेरेंस सुरक्षा को एक रनटाइम चिंता के रूप में मानना मुद्दे से चूक जाता है। वास्तविक प्रणालियों में, ये जोखिम ओवरलैप होते हैं। मॉडल और डेटा आरंभीकरण, निष्पादन और आउटपुट के दौरान उजागर होते हैं। स्टोरेज नियंत्रणों से शुरू और समाप्त होने वाली सुरक्षा इन उजागरताओं का समाधान नहीं कर पाती।

NIST क्या सही करता है — और कहां रुकता है

NIST AI जोखिम प्रबंधन ढांचा AI जोखिम प्रबंधित करने की कोशिश कर रहे संगठनों के लिए एक आधारशिला बन गया है। इसकी संरचना—शासन, मानचित्रण, मापन, प्रबंधन—AI जीवनचक्र में जवाबदेही, संदर्भ, प्रभाव और शमन के बारे में सोचने का एक अनुशासित तरीका प्रदान करती है।

NIST विशेष रूप से क्या अच्छा करता है, वह है AI जोखिम को आकस्मिक के बजाय प्रणालीगत के रूप में प्रस्तुत करना। AI विफलताएं शायद ही कभी एकल-बिंदु घटनाएं होती हैं; वे मॉडल, डेटा, लोगों और इन्फ्रास्ट्रक्चर के बीच परस्पर क्रिया से उत्पन्न होती हैं। वह प्रस्तुतीकरण आवश्यक है।

जहां ढांचा कम पड़ता है, वह है यह निर्धारित करने में विफल रहना कि सिस्टम लाइव होने के बाद उच्च-मूल्य वाली AI संपत्तियों की सुरक्षा कैसे की जाती है। मॉडल पैरामीटरों को डिज़ाइन-टाइम कलाकृतियों के बजाय रनटाइम संपत्तियों के रूप में अंतर्निहित रूप से माना जाता है। निष्पादन वातावरण को पर्याप्त भरोसेमंद मान लिया जाता है।

व्यवहार में, मॉडल पैरामीटर अक्सर किसी संगठन के स्वामित्व वाली सबसे मूल्यवान बौद्धिक संपदा होते हैं। उन्हें मेमोरी में लोड किया जाता है, नोड्स में कॉपी किया जाता है, कैश किया जाता है और पुनः उपयोग किया जाता है। यदि AI जोखिम प्रबंधन तैनाती और निष्पादन के दौरान मॉडलों की गोपनीयता का हिसाब नहीं रखता है, तो एक महत्वपूर्ण संपत्ति जोखिम सीमा के बाहर रह जाती है, जैसे एक बैठा हुआ बतख।

ENISA और AI-विशिष्ट खतरों की वास्तविकता

AI साइबरसुरक्षा पर ENISA का कार्य चर्चा को और आगे बढ़ाता है। इसका बहुस्तरीय ढांचा पारंपरिक इन्फ्रास्ट्रक्चर सुरक्षा और AI-विशिष्ट जोखिमों के बीच अंतर करता है, यह स्वीकार करते हुए कि AI सिस्टम पारंपरिक सॉफ़्टवेयर से अलग व्यवहार करते हैं—और अलग तरह से विफल होते हैं।

यह महत्वपूर्ण क्यों है? AI ऐसे खतरे पेश करता है जो मौजूदा नियंत्रणों में साफ-साफ फिट नहीं बैठते: मॉडल निष्कर्षण, पैरामीटर रिसाव, सह-किरायेदारी उजागरता, और निष्पादन के दौरान छेड़छाड़। इन जोखिमों के लिए विदेशी हमलावरों की आवश्यकता नहीं होती। वे स्वाभाविक रूप से तब उत्पन्न होते हैं जब उच्च-मूल्य वाले मॉडल साझा या बाहरी रूप से प्रबंधित वातावरण में चलते हैं।

ENISA का ढांचा अंतर्निहित रूप से पहचानता है कि AI को सुरक्षित करने का मतलब है व्यवहार को सुरक्षित करना, न कि केवल कोड को। लेकिन अधिकांश मानकों की तरह, यह इस बात पर केंद्रित है कि क्या माना जाना चाहिए, न कि इस बात पर कि मॉडल चलने के बाद सुरक्षा तकनीकी रूप से कैसे लागू की जाती है।

OWASP और प्रेक्षणीय बुद्धिमत्ता की कीमत

लार्ज लैंग्वेज मॉडल एप्लिकेशन के लिए OWASP का टॉप 10 एक अधिक ठोस दृष्टिकोण प्रदान करता है कि वास्तविक दुनिया में AI सिस्टम कैसे टूटते हैं। प्रॉम्प्ट इंजेक्शन, संवेदनशील सूचना प्रकटीकरण, एम्बेडिंग रिसाव, अत्यधिक आउटपुट पारदर्शिता—ये सैद्धांतिक चिंताएं नहीं हैं। ये शक्तिशाली मॉडलों को यह सीमित किए बिना तैनात करने के उपोत्पाद हैं कि वे क्या प्रकट करते हैं।

हालांकि इन मुद्दों को अक्सर एप्लिकेशन-लेयर समस्याओं के रूप में प्रस्तुत किया जाता है, लेकिन उनके परिणाम गहरे होते हैं। मॉडल व्यवहार के बार-बार उजागर होने से प्रभावी क्लोनिंग हो सकती है; खराब रूप से अलग-थलग एम्बेडिंग संरचना प्रकट कर सकती है; और इनफेरेंस दुरुपयोग मॉडल प्रतिकृति का मार्ग बन जाता है।

OWASP की वर्गीकरण एक बात स्पष्ट करती है: AI की सुरक्षा केवल खराब इनपुट रोकने के बारे में नहीं है। यह इस बारे में है कि मॉडल क्या उजागर करते हैं—आंतरिक और बाहरी रूप से—एक बार जब वे परिचालन में आ जाते हैं।

एक साझा निष्कर्ष, एक अधूरा काम

NIST, ENISA, और OWASP में, मूलभूत बातों पर व्यापक सहमति है:

  • AI जोखिम जीवनचक्र को फैलता है
  • AI सिस्टम नई खतरा श्रेणियां पेश करते हैं
  • मॉडल और डेटा उच्च-मूल्य वाली संपत्तियां हैं
  • रनटाइम उजागरता अपरिहार्य है

हालांकि, इन ढांचों में जिस चीज की कमी है, वह है मॉडलों के तैनात होने और कम्प्यूटेशन शुरू होने के बाद गोपनीयता लागू करने का एक तंत्र। यह चूक कोई दोष नहीं है, क्योंकि मानक इराद

Luigi Caramico, a veteran in the data protection industry, has been at the forefront of cybersecurity innovation for over two decades. As the co-founder and CTO of DataKrypto, Caramico is pioneering a new era of data security with fully homomorphic encryption (FHE) technology that promises to revolutionize how organizations protect their most sensitive information in the age of AI.

With a career spanning multiple successful ventures in data analytics and protection, Caramico’s journey from ethical hacker to encryption innovator has been driven by a singular vision: to create a world where data remains secure from creation to use, even during computation.