Connect with us

рдЬрд╣рд╛рдВ рдПрдЖрдИ рд╕реБрд░рдХреНрд╖рд╛ рдорд╛рдирдХ рд░реБрдХ рдЬрд╛рддреЗ рд╣реИрдВ тАФ рдФрд░ рд░рдирдЯрд╛рдЗрдо рд╕реБрд░рдХреНрд╖рд╛ рдХреЛ рд╢реБрд░реВ рдХрд░рдирд╛ рд╣реЛрдЧрд╛

рд╡рд┐рдЪрд╛рд░ рдиреЗрддрд╛

рдЬрд╣рд╛рдВ рдПрдЖрдИ рд╕реБрд░рдХреНрд╖рд╛ рдорд╛рдирдХ рд░реБрдХ рдЬрд╛рддреЗ рд╣реИрдВ тАФ рдФрд░ рд░рдирдЯрд╛рдЗрдо рд╕реБрд░рдХреНрд╖рд╛ рдХреЛ рд╢реБрд░реВ рдХрд░рдирд╛ рд╣реЛрдЧрд╛

mm

एआई के सुरक्षा जोखिमों के बारे में इतनी चर्चा के साथ, एक मुद्दा जो लगता है कि अनदेखा किया जा रहा है वह यह है: यह तथ्य कि एआई सिस्टम केवल अपने सबसे मूल्यवान संपत्तियों — मॉडल और डेटा को उजागर करके कार्य करते हैं।

पारंपरिक सॉफ्टवेयर के विपरीत, एआई पूर्वनिर्धारित तर्क को निष्पादित नहीं करता है। यह लगातार प्रोप्राइटरी मॉडल को संवेदनशील इनपुट के साथ मिलाता है ताकि आउटपुट उत्पन्न किया जा सके, अक्सर ऐसे बुनियादी ढांचे पर जो गणना की रक्षा के लिए डिज़ाइन नहीं किया गया है।

इस तरह, पारंपरिक सुरक्षा कम पड़ जाती है। एन्क्रिप्शन तब प्रभावी होता है जब डेटा संग्रहीत किया जाता है या नेटवर्क पर प्रेषित किया जाता है, लेकिन जब डेटा संसाधित किया जाता है या संचालित किया जाता है तो नहीं। एआई के लिए विशेष रूप से, खतरा तब उत्पन्न होता है जब एक मॉडल तैनात किया जाता है। इसके पैरामीटर मेमोरी में लोड किए जाते हैं, आरंभीकृत किए जाते हैं और पैमाने पर अभ्यास किया जाता है – बिंदु जिस पर एन्क्रिप्शन बंद हो जाता है – इसे संभावित अनधिकृत पहुंच के लिए उजागर करता है। अनुमान के दौरान, संवेदनशील डेटा उसी उजागर स्थान से होकर गुजरता है। परिणाम एक अत्यधिक कमजोर जोखिम सतह है: एआई सिस्टम जो सुरक्षित दिखाई दे सकते हैं – लेकिन सबसे महत्वपूर्ण क्षणों में वास्तव में असुरक्षित हैं।

मानक निकाय जैसे कि नेशनल इंस्टीट्यूट ऑफ स्टैंडर्ड्स एंड टेक्नोलॉजी (एनआईएसटी), यूरोपीय संघ एजेंसी फॉर साइबर सुरक्षा (पूर्व में यूरोपीय नेटवर्क और सूचना सुरक्षा एजेंसी, या ईएनआईएसए के रूप में जाना जाता था), और ओपन वेब एप्लिकेशन सुरक्षा परियोजना (ओडब्ल्यूएएसपी) ने इस क्षेत्र को चार्ट करना शुरू कर दिया है। वे जोखिमों का वर्णन करते हैं, कमजोरियों का नाम देते हैं, और शासन सिद्धांतों का रूपरेखा तैयार करते हैं। लेकिन वे इस बात का वर्णन करने से रुक जाते हैं कि निष्पादन शुरू होने के बाद बौद्धिक संपदा के रूप में मॉडल और गोपनीय संपत्ति के रूप में डेटा की रक्षा कैसे की जाए। इस अंतर को बंद करने के लिए एआई सुरक्षा को फिर से सोचने की आवश्यकता है – न कि एक अनुपालन अभ्यास के रूप में, बल्कि गणना स्वयं के रूप में। यह वह जगह है जहां एन्क्रिप्शन-इन-यूज़, या एंड-टू-एंड एन्क्रिप्शन, एक भूमिका निभाता है।

आधुनिक एआई सुरक्षा में अंधा धब्बा

अधिकांश एआई सुरक्षा वार्ता अभी भी परिचित जमीन पर घूमती है: प्रशिक्षण डेटा शासन, पहुंच नियंत्रण, एपीआई निगरानी, और जिम्मेदार उपयोगकर्ता नीतियां। ये आवश्यक हैं। हालांकि, उनमें से कोई भी तैनाती के बाद क्या होता है, जब एक मॉडल रिपॉजिटरी से बाहर निकलता है और एक जीवित प्रणाली बन जाता है, इसका समाधान नहीं करता है।

एक बार तैनात होने के बाद, एक मॉडल के पैरामीटर अब अमूर्त कलाकृतियां नहीं हैं। वे जीवित, मेमोरी-निवास संपत्तियां हैं, जो लगातार अनुमान के दौरान एक्सेस की जाती हैं और अक्सर साझा की जाने वाली एआई सेवाओं के माध्यम से कई किरायेदारों या ग्राहकों द्वारा उपयोग की जाती हैं। यह उजागर होने से पहले ही होता है कि कोई भी अनुमान अनुरोध किया जाता है, जिससे जोखिम को संवेदनशील इनपुट और बाहरी रूप से दिखाई देने वाले व्यवहार के परिचय द्वारा बढ़ा दिया जाता है।

मॉडल सुरक्षा को पूर्व-तैनाती चिंता के रूप में और अनुमान सुरक्षा को रनटाइम चिंता के रूप में मानना बात को छोड़ देता है। वास्तविक प्रणालियों में, ये जोखिम ओवरलैप करते हैं। मॉडल और डेटा प्रारंभिकरण, निष्पादन, और आउटपुट के माध्यम से उजागर होते हैं। स्टोरेज नियंत्रणों के साथ शुरू और समाप्त होने वाली सुरक्षा इन उजागरता को संबोधित नहीं करती है।

एनआईएसटी क्या सही है — और जहां यह रुक जाता है

एनआईएसटी एआई जोखिम प्रबंधन फ्रेमवर्क संगठनों के लिए एआई जोखिम का प्रबंधन करने के लिए एक आधार बन गया है। इसकी संरचना — शासन, मानचित्र, माप, प्रबंधन — एआई जीवन चक्र में जिम्मेदारी, संदर्भ, प्रभाव, और शमन के माध्यम से सोचने का एक अनुशासित तरीका प्रदान करता है।

एनआईएसटी जो विशेष रूप से अच्छा करता है वह एआई जोखिम को दुर्घटनावश नहीं बल्कि प्रणालीगत रूप से फ्रेम करता है। एआई विफलताएं शायद ही कभी एकल-बिंदु घटनाएं होती हैं; वे मॉडल, डेटा, लोगों, और बुनियादी ढांचे के बीच परस्पर क्रिया से उत्पन्न होती हैं। यह फ्रेमिंग आवश्यक है।

जहां फ्रेमवर्क कम पड़ जाता है वह है उच्च-मूल्य एआई संपत्तियों की रक्षा के लिए एक तंत्र की कमी एक बार सिस्टम लाइव हो जाते हैं। मॉडल पैरामीटर को डिज़ाइन-समय कलाकृतियों के रूप में निहित रूप से माना जाता है, न कि रनटाइम संपत्ति के रूप में। निष्पादन वातावरण को पर्याप्त रूप से विश्वसनीय माना जाता है।

व्यवहार में, मॉडल पैरामीटर अक्सर एक संगठन की सबसे मूल्यवान बौद्धिक संपदा होते हैं। वे मेमोरी में लोड किए जाते हैं, नोड्स के माध्यम से कॉपी किए जाते हैं, कैश किए जाते हैं, और पुन: उपयोग किए जाते हैं। यदि एआई जोखिम प्रबंधन तैनाती और निष्पादन के दौरान मॉडल की गोपनीयता के लिए खाता नहीं देता है, तो एक महत्वपूर्ण संपत्ति जोखिम सीमा से बाहर रहती है, एक बैठा हुआ बत्तख की तरह।

ईएनआईएसए और एआई-विशिष्ट खतरों की वास्तविकता

ईएनआईएसए का एआई साइबर सुरक्षा पर काम बातचीत को आगे बढ़ाता है। इसका बहुस्तरीय फ्रेमवर्क पारंपरिक बुनियादी ढांचे की सुरक्षा और एआई-विशिष्ट जोखिमों के बीच अंतर करता है, स्वीकार करता है कि एआई सिस्टम व्यवहार करते हैं — और पारंपरिक सॉफ्टवेयर की तुलना में विफल होते हैं।

यह महत्वपूर्ण क्यों है? एआई ऐसे खतरे पेश करता है जो मौजूदा नियंत्रणों में फिट नहीं होते हैं: मॉडल निकासी, पैरामीटर रिसाव, सह-टेनेंसी उजागरता, और निष्पादन के दौरान छेड़छाड़। ये जोखिमों को विदेशी हमलावरों की आवश्यकता नहीं है। वे तब प्राकृतिक रूप से उत्पन्न होते हैं जब उच्च-मूल्य वाले मॉडल साझा या बाहरी रूप से प्रबंधित वातावरण में चलते हैं।

ईएनआईएसए के फ्रेमवर्क में स्वीकार किया जाता है कि एआई को सुरक्षित करने का अर्थ है व्यवहार की सुरक्षा, न कि केवल कोड। लेकिन अधिकांश मानकों की तरह, यह इस बात पर ध्यान केंद्रित करता है कि क्या विचार किया जाना चाहिए, न कि मॉडल चलने के बाद तकनीकी रूप से सुरक्षा कैसे लागू की जाए।

ओडब्ल्यूएएसपी और दिखाई देने वाली बुद्धिमत्ता की लागत

ओडब्ल्यूएएसपी के लार्ज लैंग्वेज मॉडल एप्लिकेशन के लिए शीर्ष 10 वास्तविक दुनिया में एआई सिस्टम के टूटने का एक अधिक ठोस दृश्य प्रदान करता है। प्रॉम्प्ट इंजेक्शन, संवेदनशील जानकारी प्रकटीकरण, एम्बेडिंग रिसाव, अत्यधिक आउटपुट पारदर्शिता — ये सैद्धांतिक चिंताएं नहीं हैं। वे शक्तिशाली मॉडल को प्रतिबंधित किए बिना तैनात करने के परिणाम हैं कि वे क्या प्रकट करते हैं।

जबकि ये मुद्दे अक्सर एप्लिकेशन-परत की समस्याओं के रूप में फ्रेम किए जाते हैं, उनके परिणाम गहरे हैं। मॉडल व्यवहार की बार-बार उजागरता मॉडल क्लोनिंग का कारण बन सकती है; खराब अलगाव वाले एम्बेडिंग संरचना का खुलासा कर सकते हैं; और अनुमान दुरुपयोग मॉडल प्रतिलिपि के लिए एक मार्ग बन जाता है।

ओडब्ल्यूएएसपी की टैक्सोनॉमी एक बात स्पष्ट करती है: एआई की रक्षा करना केवल बुरे इनपुट को रोकने के बारे में नहीं है। यह मॉडल को सीमित करने के बारे में है — आंतरिक और बाहरी दोनों — एक बार वे संचालित होने लगते हैं।

एक साझा निष्कर्ष, एक अधूरा काम

एनआईएसटी, ईएनआईएसए, और ओडब्ल्यूएएसपी के माध्यम से, मूल बातों पर व्यापक सहमति है:

  • एआई जोखिम जीवन चक्र में फैला हुआ है
  • एआई सिस्टम नए खतरे की श्रेणियां पेश करते हैं
  • मॉडल और डेटा उच्च-मूल्य संपत्ति हैं
  • रनटाइम उजागरता टाली नहीं जा सकती

हालांकि, इन फ्रेमवर्क में जो कमी है वह यह है कि एक बार मॉडल तैनात किए जाने और गणना शुरू होने के बाद गोपनीयता को लागू करने के लिए एक तंत्र की कमी है। यह कमी एक दोष नहीं है, क्योंकि मानक इरादे और दायरे को परिभाषित करते हैं। कार्यान्वयन आमतौर पर सिस्टम डिज़ाइनर को छोड़ दिया जाता है।

लेकिन वे एक महत्वपूर्ण अंतर छोड़ते हैं — जो एआई सिस्टम के पैमाने पर बढ़ता है।

एन्क्रिप्शन-इन-यूज़ समीकरण को बदलता है

एन्क्रिप्शन-इन-यूज़ सुरक्षा मॉडल को बदल देता है। इसके बजाय यह मान लेना कि डेटा और मॉडल को उपयोगी होने के लिए उजागर किया जाना चाहिए, यह गणना को ऐसी चीज़ के रूप में मानता है जिसकी रक्षा की जा सकती है।

व्यावहारिक शब्दों में, इसका अर्थ है:

  • मॉडल तैनाती, प्रारंभिकरण, और निष्पादन के दौरान एन्क्रिप्टेड रहते हैं
  • इनपुट निष्पादन वातावरण के लिए कभी भी मूल पाठ में दिखाई नहीं देते
  • मध्यवर्ती राज्यों का निरीक्षण या संशोधन नहीं किया जा सकता
  • बुनियादी ढांचे को अबImplicit रूप से विश्वसनीय माना जाने की आवश्यकता नहीं है

यह शासन फ्रेमवर्क या एप्लिकेशन-परत नियंत्रण को प्रतिस्थापित नहीं करता है — यह उन्हें संचालित करता है। यह जोखिम सिद्धांतों को जब एआई सिस्टम सबसे अधिक कमजोर होते हैं तो लागू करने योग्य गारंटी में बदलता है।

दूसरे शब्दों में, एन्क्रिप्शन-इन-यूज़ एआई नीति और एआई वास्तविकता के बीच लापता परत है।

जब शासन समाप्त होता है और निष्पादन शुरू होता है: एआई गणना की सुरक्षा

एआई सुरक्षा रनटाइम पर टूट जाती है। एक बार तैनात होने के बाद, एआई मॉडल और संवेदनशील डेटा को कार्य करने के लिए मेमोरी में उजागर किया जाना चाहिए, जिससे एक जोखिम सतह बनती है जिसकी रक्षा के लिए पारंपरिक नियंत्रण — विश्राम में एन्क्रिप्शन, संचरण में एन्क्रिप्शन, और शासन फ्रेमवर्क — डिज़ाइन नहीं किए गए थे।

एनआईएसटी, ईएनआईएसए, और ओडब्ल्यूएएसपी जैसे मानक निकायों ने एआई जोखिम, जिम्मेदारी, और दुरुपयोग को परिभाषित करने में महत्वपूर्ण प्रगति की है। लेकिन उनका मार्गदर्शन मुख्य रूप से मॉडल को डिज़ाइन-समय कलाकृतियों के रूप में मानता है और मान लेता है कि निष्पादन वातावरण पर विश्वास किया जा सकता है। व्यवहार में, मॉडल पैरामीटर और संवेदनशील इनपुट निरंतर एक्सेस किए जाते हैं, पुन: उपयोग किए जाते हैं, और अक्सर साझा या बाहरी रूप से प्रबंधित वातावरण में संसाधित किए जाते हैं।

इस अंतर को बंद करने के लिए एआई सुरक्षा को फिर से सोचने की आवश्यकता है — न कि एक अनुपालन अभ्यास के रूप में, बल्कि गणना स्वयं के रूप में सुरक्षा की समस्या के रूप में। जब मॉडल जीवित होते हैं, डेटा उपयोग में होता है, और उजागरता टाली नहीं जा सकती, तो एन्क्रिप्शन-इन-यूज़ एआई मॉडल और संवेदनशील इनपुट को सुरक्षित रखने के लिए एक व्यवहार्य तरीका प्रदान करता है एआई जीवन चक्र के हर चरण में।

рд▓реБрдЗрдЧреА рдХрд╛рд░рд╛рдорд┐рдХреЛ, рдбреЗрдЯрд╛ рд╕реБрд░рдХреНрд╖рд╛ рдЙрджреНрдпреЛрдЧ рдореЗрдВ рдПрдХ рдЕрдиреБрднрд╡реА, рджреЛ рджрд╢рдХреЛрдВ рд╕реЗ рд╕рд╛рдЗрдмрд░ рд╕реБрд░рдХреНрд╖рд╛ рдирд╡рд╛рдЪрд╛рд░ рдХреЗ рдЕрдЧреНрд░рдгреА рд░рд╣реЗ рд╣реИрдВред DataKrypto рдХреЗ рд╕рд╣-рд╕рдВрд╕реНрдерд╛рдкрдХ рдФрд░ рд╕реАрдЯреАрдУ рдХреЗ рд░реВрдк рдореЗрдВ, рдХрд╛рд░рд╛рдорд┐рдХреЛ рдкреВрд░реНрдг рд╣реЛрдореЛрдореЛрд░реНрдлрд┐рдХ рдПрдиреНрдХреНрд░рд┐рдкреНрд╢рди (рдПрдлрдПрдЪрдИ) рдкреНрд░реМрджреНрдпреЛрдЧрд┐рдХреА рдХреЗ рд╕рд╛рде рдбреЗрдЯрд╛ рд╕реБрд░рдХреНрд╖рд╛ рдХреЗ рдПрдХ рдирдП рдпреБрдЧ рдХреА рд╢реБрд░реБрдЖрдд рдХрд░ рд░рд╣реЗ рд╣реИрдВ рдЬреЛ рдПрдЖрдИ рдХреЗ рдпреБрдЧ рдореЗрдВ рд╕рдВрдЧрдардиреЛрдВ рджреНрд╡рд╛рд░рд╛ рдЕрдкрдиреА рд╕рдмрд╕реЗ рд╕рдВрд╡реЗрджрдирд╢реАрд▓ рдЬрд╛рдирдХрд╛рд░реА рдХреА рд╕реБрд░рдХреНрд╖рд╛ рдХреЗ рддрд░реАрдХреЗ рдХреЛ рдХреНрд░рд╛рдВрддрд┐рдХрд╛рд░реА рдмрдирд╛рдиреЗ рдХрд╛ рд╡рд╛рджрд╛ рдХрд░рддреА рд╣реИред

рдбреЗрдЯрд╛ рд╡рд┐рд╢реНрд▓реЗрд╖рдг рдФрд░ рд╕реБрд░рдХреНрд╖рд╛ рдореЗрдВ рдХрдИ рд╕рдлрд▓ рдЙрджреНрдпрдореЛрдВ рдХреЗ рд╕рд╛рде рдПрдХ рдХрд░рд┐рдпрд░ рдХреЗ рд╕рд╛рде, рдХрд╛рд░рд╛рдорд┐рдХреЛ рдХреА рдпрд╛рддреНрд░рд╛ рдиреИрддрд┐рдХ рд╣реИрдХрд░ рд╕реЗ рдПрдиреНрдХреНрд░рд┐рдкреНрд╢рди рдирд╡рдкреНрд░рд╡рд░реНрддрдирдХрд░реНрддрд╛ рддрдХ рдПрдХ рдПрдХрд▓ рджреГрд╖реНрдЯрд┐ рд╕реЗ рдЪрд▓рд╛рдИ рдЧрдИ рд╣реИ: рдбреЗрдЯрд╛ рдХреЛ рдмрдирд╛рдиреЗ рд╕реЗ рд▓реЗрдХрд░ рдЙрдкрдпреЛрдЧ рддрдХ, рдпрд╣рд╛рдВ рддрдХ рдХрд┐ рдЧрдгрдирд╛ рдХреЗ рджреМрд░рд╛рди рднреА рд╕реБрд░рдХреНрд╖рд┐рдд рд░рдЦрдиреЗ рдХреЗ рд▓рд┐рдП рдПрдХ рджреБрдирд┐рдпрд╛ рдмрдирд╛рдиреЗ рдХреЗ рд▓рд┐рдПред