Connect with us

अधिक AI सुरक्षा खर्च आपके AI जोखिम को कम नहीं कर रहा है

विचार नेता

अधिक AI सुरक्षा खर्च आपके AI जोखिम को कम नहीं कर रहा है

mm

AI सुरक्षा बजट तेजी से बढ़ रहे हैं। कई संगठनों में, वे उन सिस्टमों की तुलना में तेजी से बढ़ रहे हैं जिनकी वे रक्षा करने के लिए हैं।

इस असंतुलन को पहचानना आसान नहीं है। कृत्रिम बुद्धिमत्ता में निवेश तेजी से जारी है, जिसमें वैश्विक निजी फंडिंग केवल 2025 में $33.9 बिलियन तक पहुंच गई है। साथ ही, सुरक्षा नेताओं से मॉडल व्यवहार, डेटा एक्सपोजर और प्रतिकूल हेरफेर से जुड़े नए जोखिमों का हिसाब मांगा जा रहा है। प्रतिक्रिया अनुमानित रही है: अधिक टूल, अधिक नियंत्रण और अधिक बजट।

इसे व्यवसाय करने की लागत के बारे में बातचीत में बदलना आकर्षक है, यह एक साधारण सवाल है कि AI को सुरक्षित करने के लिए संगठनों को कितना खर्च करने की आवश्यकता है। हालांकि, इस नई समस्या से निपटने का यह गलत तरीका है। इसके बजाय, संगठनों को यह जांचने की आवश्यकता है कि क्या उनका AI निवेश वास्तव में सही टूल सुरक्षित करता है।

अधिकांश उद्यमों में, AI को अभी भी कार्य स्तर पर पेश किया जा रहा है। टीमें व्यक्तिगत उत्पादकता में सुधार के लिए सारांशीकरण, कोडिंग सहायता, एनालिटिक्स या वर्कफ़्लो ऑटोमेशन के साथ प्रयोग करती हैं। ये टूल स्थानीय लाभ देते हैं, लेकिन वे शायद ही कभी बदलते हैं कि निर्णय कैसे लिए जाते हैं या व्यापक स्तर पर सिस्टम कैसे संचालित होते हैं। यह अंतर परिणामों में दिखने लगा है। जबकि अपनाना व्यापक है, केवल लगभग 20% संगठन ही अपनी मुख्य लाभ रेखा पर सार्थक प्रभाव की रिपोर्ट करते हैं।

सुरक्षा निवेश इस प्रयोग के साथ-साथ बढ़ रहा है। फिर भी कई मामलों में, इसे असंबद्ध टूल्स के बढ़ते संग्रह पर लागू किया जा रहा है, न कि सुसंगत सिस्टम पर जो यह आकार देते हैं कि व्यवसाय वास्तव में कैसे चलता है। AI का मूल्यांकन कार्य स्तर पर किया जाता है, सिस्टम स्तर पर सुरक्षित किया जाता है, और कभी भी वर्कफ़्लो स्तर पर पूरी तरह से डिज़ाइन नहीं किया जाता है जहां वास्तविक मूल्य बनता है।

AI अपनाना इसके एकीकृत होने से तेजी से विस्तार कर रहा है

आज अधिकांश AI तैनाती डिजाइन से संकीर्ण हैं। उन्हें व्यक्तिगत कार्यों को तेज करने के लिए बनाया गया है न कि टीमों या सिस्टम में काम के प्रवाह को फिर से आकार देने के लिए।

एक बिक्री टीम ईमेल ड्राफ्ट करने या कॉल्स का सारांश तैयार करने के लिए AI अपना सकती है। इंजीनियरिंग टीमें कोड जनरेशन में तेजी लाने के लिए इसका उपयोग करती हैं। ऑपरेशंस टीमें एनालिटिक्स या पूर्वानुमान समर्थन के साथ प्रयोग करती हैं। इनमें से प्रत्येक उपयोग के मामले व्यक्तिगत स्तर पर मापने योग्य उत्पादकता लाभ देते हैं, और यह अक्सर प्रारंभिक निवेश को सही ठहराने के लिए पर्याप्त होता है।

जटिलता तब शुरू होती है जब ये अलग-थलग लाभ जमा होते हैं।

प्रत्येक तैनाती अपने स्वयं के मॉडल, डेटा एक्सेस पैटर्न, API और निर्भरताएं पेश करती है। समय के साथ, संगठन स्वयं को AI क्षमताओं के बढ़ते पारिस्थितिकी तंत्र का प्रबंधन करते पाते हैं जिन्हें कभी एक साथ काम करने के लिए डिज़ाइन नहीं किया गया था। अभी भी, उद्यमों का एक बड़ा हिस्सा प्रारंभिक प्रयोग के चरणों में बना हुआ है, जिसमें कई पहलें अभी तक मुख्य व्यावसायिक संचालन में एम्बेड नहीं की गई हैं।

सुरक्षा टीमें इस वातावरण को विरासत में लेती हैं क्योंकि यह बनता है। उनसे एकल सिस्टम नहीं, बल्कि टूल्स, एकीकरण और डेटा प्रवाह के लगातार बदलते संग्रह को सुरक्षित करने के लिए कहा जाता है जो प्रत्येक नए प्रयोग के साथ विस्तारित होते हैं। एकीकृत आर्किटेक्चर के बिना, सुरक्षा नियंत्रण के बजाय कवरेज का एक अभ्यास बन जाती है।

वास्तविक जोखिम व्यक्तिगत टूल नहीं है। यह सिस्टम विखंडन है

जैसे-जैसे AI प्रयोग जारी है, नेतृत्व की अपेक्षाएं बदलने लगी हैं। बोर्ड और कार्यकारी टीमें पूछ रही हैं कि बढ़ता AI खर्च मापने योग्य व्यावसायिक परिणामों में कैसे तब्दील होता है।

जब प्रारंभिक पहलें कम पड़ती हैं, तो संगठन शायद ही कभी धीमे होते हैं। वे अपने प्रयासों का विस्तार करते हैं। अधिक पायलट लॉन्च किए जाते हैं। अधिक टूल पेश किए जाते हैं। अधिक एकीकरण उस मूल्य की खोज में बनाए जाते हैं जो अभी तक सामने नहीं आया है। पूर्वानुमान पहले ही सुझाव देते हैं कि आने वाले वर्षों में आधे से अधिक AI परियोजनाएं प्रोडक्शन तक पहुंचने या अपेक्षित परिणाम देने में विफल हो सकती हैं।

सुरक्षा टीमों के लिए, यह चक्र एक नए प्रकार का जोखिम पैदा करता है।

चुनौती अब केवल व्यक्तिगत एप्लिकेशन या मॉडल की रक्षा करना नहीं है। यह एक ऐसे वातावरण का प्रबंधन है जहां अंतर्निहित सिस्टम लगातार बदल रहा है। प्रत्येक नया टूल अतिरिक्त पहचान, डेटा प्रवाह और मॉडल व्यवहार पेश करता है जो हमले की सतह का विस्तार करता है इससे पहले कि रक्षकों के पास इसे पूरी तरह से समझने का समय हो।

इस संदर्भ में, सुरक्षा खर्च बढ़ाने से जोखिम आवश्यक रूप से कम नहीं होता है। यह इसके बजाय परिचालन जटिलता बढ़ा सकता है। खंडित सिस्टम की सुरक्षा के लिए अधिक टूलिंग, अधिक निगरानी और अधिक समन्वय की आवश्यकता होती है, लेकिन यह मूल मुद्दे को संबोधित नहीं करता है, जो यह है कि AI को कैसे तैनात और उपयोग किया जाता है, इसके लिए एक सुसंगत संरचना का अभाव है।

सुरक्षा खर्च तभी रणनीतिक बनता है जब AI परिचालन बन जाता है

हम AI सुरक्षा निवेश के कारण एक बेहतरीन जगह पर हैं; नवाचार की डिग्री खगोलीय है, और जबकि AI उपयोग के मामलों के लिए भविष्य उज्ज्वल है, सुरक्षा निवेश अक्सर उस स्थान से अलग होता है जहां AI वास्तव में मूल्य बना रहा है।

जब AI को मुख्य रूप से अलग-थलग उत्पादकता टूल के एक सेट के रूप में तैनात किया जाता है, तो सुरक्षा प्रयास उस विखंडन का अनुसरण करने के लिए मजबूर होते हैं। टीमें दर्जनों असंबद्ध एप्लिकेशन की रक्षा करने में समाप्त हो जाती हैं जिनका मुख्य व्यावसायिक परिणामों पर सीमित प्रभाव होता है।

अधिक मूल्य तब उभरता है जब AI को उन वर्कफ़्लो में एम्बेड किया जाता है जो संचालित करते हैं कि संगठन कैसे संचालित होते हैं। योजना बनाना, पूर्वानुमान लगाना, संसाधन आवंटन और परिचालन निर्णय लेना वे क्षेत्र हैं जहां AI परिणामों को सार्थक तरीके से प्रभावित करना शुरू करता है। ये वे वातावरण भी हैं जहां सुरक्षा निवेश अधिक रणनीतिक बन जाता है।

एक असंबद्ध टूल को सुरक्षित करना एक कार्य की रक्षा करता है। एक एकीकृत सिस्टम को सुरक्षित करना एक व्यावसायिक प्रक्रिया की रक्षा करता है।

यह वह जगह है जहां कार्य-स्तरीय अपनाने और वर्कफ़्लो-स्तरीय डिजाइन के बीच अंतर महत्वपूर्ण हो जाता है। AI जो निर्णय लेने के तरीके में एकीकृत नहीं है, वह मापने योग्य प्रभाव देने के लिए संघर्ष करेगा। सुरक्षा जो उन निर्णय लेने वाले सिस्टम के साथ संरेखित नहीं है, वह सार्थक जोखिम को कम करने के लिए संघर्ष करेगी।

बदलाव बाद में नहीं, बल्कि जल्द ही आना चाहिए

संगठनों को कम AI पहलों की आवश्यकता नहीं है। उन्हें अधिक सोची-समझी पहलों की आवश्यकता है।

पहला बदलाव यह है कि AI सफलता का मूल्यांकन कैसे किया जाता है। यदि एक तैनाती यह नहीं बदलती कि निर्णय कैसे लिए जाते हैं या टीमों में काम कैसे चलता है, तो इसका प्रभाव सीमित रहेगा, चाहे इसे कितना भी व्यापक रूप से अपनाया गया हो। कार्य स्तर के बजाय वर्कफ़्लो स्तर पर सफलता को मापना एक स्पष्ट संकेत प्रदान करता है कि AI वास्तव में कहां मूल्य दे रहा है।

दूसरा बदलाव यह है कि सुरक्षा निवेश को कैसे प्राथमिकता दी जाती है। हर प्रयोगात्मक टूल में नियंत्रण वितरित करने के बजाय, संगठनों को योजना, संचालन और निर्णय लेने को प्रभावित करने वाले सिस्टम के आसपास सुरक्षा केंद्रित करनी चाहिए। ये वे वातावरण हैं जहां जोखिम और मूल्य प्रतिच्छेद करते हैं।

तीसरा बदलाव संरचनात्मक है। AI सिस्टम स्वामित्व के नए रूप पेश करते हैं जो पारंपरिक एप्लिकेशन सीमाओं से आगे बढ़ते हैं। मॉडल, प्रशिक्षण डेटा, डेटा पाइपलाइन और AI-जनित आउटपुट सभी को स्पष्ट जवाबदेही की आवश्यकता होती है। परिभाषित स्वामित्व के बिना, शासन असंगत हो जाता है और सुरक्षा अंतरालों की पहचान करना कठिन हो जाता है।

एक साथ लिए गए, ये परिवर्तन संगठनों को गतिविधि को सुरक्षित करने से दूर और परिणामों को सुरक्षित करने की ओर ले जाते हैं।

AI सिस्टम बनाना जो वास्तव में स्केल कर सकते हैं

जो संगठन AI अपनाने को वर्कफ़्लो-स्तरीय डिजाइन के साथ संरेखित करते हैं, वे मूल्य और नियंत्रण दोनों के लिए एक स्पष्ट रास्ता प्राप्त करते हैं।

सुरक्षा संसाधन अधिक प्रभावी हो जाते हैं जब वे स

Steve Povolny, VP of AI Strategy & Security Research, Exabeam is a seasoned security research professional with over 15 years of experience in managing security research teams. He has a proven track record of identifying vulnerabilities and implementing effective solutions to mitigate them.