Connect with us

Hallucination Control: Benefits and Risks of Deploying LLMs as Part of Security Processes

рд╡рд┐рдЪрд╛рд░ рдиреЗрддрд╛

Hallucination Control: Benefits and Risks of Deploying LLMs as Part of Security Processes

mm

Large Language Models (LLMs) विशाल डेटा सेट पर प्रशिक्षित सुरक्षा संचालन टीमों को अधिक बुद्धिमान बना सकते हैं। एलएलएम इन-लाइन सुझाव और प्रतिक्रिया, लेखा परीक्षा, मुद्रा प्रबंधन और अधिक पर मार्गदर्शन प्रदान करते हैं। अधिकांश सुरक्षा टीमें मैनुअल श्रम को कम करने के लिए एलएलएम का प्रयोग कर रही हैं या प्रयोग कर रही हैं। यह दोनों साधारण और जटिल कार्यों के लिए हो सकता है।

उदाहरण के लिए, एक एलएलएम एक कर्मचारी से ईमेल के माध्यम से पूछताछ कर सकता है कि क्या उन्होंने एक प्रपंच दस्तावेज़ साझा करने का इरादा किया था और फिर सुरक्षा विशेषज्ञ के लिए एक सिफारिश के साथ प्रतिक्रिया को संसाधित कर सकता है। एक एलएलएम को खुले स्रोत मॉड्यूल पर आपूर्ति श्रृंखला हमलों की तलाश के लिए अनुरोधों का अनुवाद करने और विशिष्ट स्थितियों पर केंद्रित एजेंटों को स्पिन करने के लिए भी नियुक्त किया जा सकता है – व्यापक रूप से उपयोग की जाने वाली पुस्तकालयों में नए योगदानकर्ता, अनुचित कोड पैटर्न – प्रत्येक एजेंट को उस विशिष्ट स्थिति के लिए तैयार किया जाता है।

यह कहा जा रहा है, ये शक्तिशाली एआई सिस्टम सुरक्षा टीमों के सामने आने वाले अन्य जोखिमों के विपरीत महत्वपूर्ण जोखिम उठाते हैं। सुरक्षा एलएलएम को शक्ति देने वाले मॉडल प्रॉम्प्ट इंजेक्शन या डेटा जहर के माध्यम से समझौता किया जा सकता है। पर्याप्त मानव मार्गदर्शन के बिना निरंतर प्रतिक्रिया लूप और मशीन लर्निंग अल्गोरिदम खराब अभिनेताओं को नियंत्रणों की जांच करने और फिर खराब लक्षित प्रतिक्रियाओं को प्रेरित करने की अनुमति दे सकते हैं। एलएलएम सीमित डोमेन में भी भ्रम के लिए प्रवण होते हैं। यहां तक कि सर्वोत्तम एलएलएम भी जब वे उत्तर नहीं जानते हैं तो चीजें बनाते हैं।

सुरक्षा प्रक्रियाएं और एलएलएम के उपयोग और कार्यप्रवाह के आसपास की एआई नीतियां साइबर सुरक्षा संचालन और अनुसंधान में अधिक सामान्य होते ही अधिक महत्वपूर्ण हो जाएंगी। यह सुनिश्चित करना कि ये प्रक्रियाएं पालन की जाती हैं, और उन्हें शासन प्रणालियों में मापा जाता है और उनका लेखा-जोखा होता है, सुनिश्चित करने के लिए साबित होगा कि सीआईएसओ नए मांगों जैसे साइबर सुरक्षा फ्रेमवर्क 2.0 को पूरा करने के लिए पर्याप्त जीआरसी (शासन, जोखिम और अनुपालन) कवरेज प्रदान कर सकते हैं।

साइबर सुरक्षा में एलएलएम का विशाल वादा

सीआईएसओ और उनकी टीमें निरंतर नई साइबर हमलों की बढ़ती लहर के साथ रखने के लिए संघर्ष करती हैं। क्वालिस के अनुसार, 2023 में रिपोर्ट किए गए सीवीई की संख्या 26,447 के नया रिकॉर्ड पर पहुंच गई। यह 2013 से 5 गुना से अधिक है।

यह चुनौती केवल तब और अधिक कठिन हो गई है जब औसत संगठन का हमला सतह प्रत्येक वर्ष के साथ बड़ा हो गया है। ऐपसेक टीमों को कई अधिक सॉफ्टवेयर अनुप्रयोगों को सुरक्षित और निगरानी करना होगा। क्लाउड कंप्यूटिंग, एपीआई, मल्टी-क्लाउड और वर्चुअलाइजेशन प्रौद्योगिकियों ने अतिरिक्त जटिलता जोड़ी है। आधुनिक सीआई/सीडी टूलिंग और प्रक्रियाओं के साथ, अनुप्रयोग टीमें अधिक कोड, तेजी से और अधिक बार भेज सकती हैं। माइक्रोसेविसेज ने एकल एप्लिकेशन को कई एपीआई और हमला सतह में विभाजित किया है और बाहरी सेवाओं या ग्राहक उपकरणों के साथ संचार के लिए वैश्विक फायरवॉल में कई अधिक छेद पंच किए हैं।

उन्नत एलएलएम साइबर सुरक्षा टीमों के कार्यभार को कम करने और उनकी क्षमताओं में सुधार करने का वादा करते हैं। एआई-संचालित कोडिंग टूल्स ने व्यापक रूप से सॉफ्टवेयर विकास में प्रवेश किया है। गिटहब शोध में पाया गया कि 92% डेवलपर कोड सुझाव और पूर्णता के लिए एआई टूल का उपयोग कर रहे हैं या उपयोग किया है। इनमें से अधिकांश “कोपायलट” टूल में कुछ सुरक्षा क्षमताएं हैं। वास्तव में, कोडिंग जैसे कार्यक्रमात्मक अनुशासन जो अपेक्षाकृत द्विआधारी परिणामों के साथ हैं (कोड या तो इकाई परीक्षण पास करेगा या विफल होगा), एलएलएम के लिए अच्छी तरह से अनुकूल हैं। सॉफ्टवेयर विकास और सीआई/सीडी पाइपलाइन में कोड स्कैनिंग के अलावा, एआई साइबर सुरक्षा टीमों के लिए कई अन्य तरीकों से मूल्यवान हो सकता है:

  • सुधारित विश्लेषण: एलएलएम सुरक्षा डेटा (लॉग, अलर्ट, खतरा खुफिया) की विशाल मात्रा को संसाधित कर सकते हैं ताकि मानवों के लिए अदृश्य पैटर्न और संबंधों की पहचान की जा सके। वे इसे भाषाओं, घड़ी के चारों ओर, और एक ही समय में कई आयामों पर कर सकते हैं। यह सुरक्षा टीमों के लिए नए अवसर खोलता है। एलएलएम अलर्ट के एक ढेर को लगभग वास्तविक समय में जला सकते हैं, जो सबसे गंभीर होने की संभावना है उन्हें झंडा दिखा सकते हैं। सुदृढ़ सीखने के माध्यम से, विश्लेषण समय के साथ बेहतर होना चाहिए।
  • स्वचालन: एलएलएम सुरक्षा टीम कार्यों को स्वचालित कर सकते हैं जिन्हें आमतौर पर परस्पर बातचीत की आवश्यकता होती है। उदाहरण के लिए, जब एक सुरक्षा टीम को एक आईओसी प्राप्त होता है और उन्हें एंडपॉइंट के मालिक से पूछने की आवश्यकता होती है कि क्या उन्होंने वास्तव में एक डिवाइस में साइन इन किया था या वे अपने सामान्य कार्य क्षेत्रों के बाहर कहीं हैं, एलएलएम इन सरल संचालन कर सकता है और फिर आवश्यकतानुसार प्रश्नों का पालन कर सकता है और लिंक या निर्देश प्रदान कर सकता है। यह एक ऐसी बातचीत थी जिसे आईटी या सुरक्षा टीम के सदस्य को स्वयं करना था। एलएलएम अधिक उन्नत कार्यक्षमता भी प्रदान कर सकते हैं। उदाहरण के लिए, माइक्रोसॉफ्ट कोपायलट फॉर सिक्योरिटी इंकिडेंट विश्लेषण रिपोर्ट तैयार कर सकता है और जटिल मैलवेयर कोड को प्राकृतिक भाषा विवरण में अनुवादित कर सकता है।
  • निरंतर सीखना और ट्यूनिंग: सुरक्षा नीतियों और समझ के लिए पिछले मशीन लर्निंग सिस्टम के विपरीत, एलएलएम मानव रेटिंग को अपनी प्रतिक्रिया के साथ ग्रहण करके और नई डेटा पूल पर फिर से ट्यून करके उड़ान भर सकते हैं जो आंतरिक लॉग फ़ाइलों में शामिल नहीं हो सकते हैं। वास्तव में, एक ही मूलभूत मॉडल का उपयोग करके, साइबर सुरक्षा एलएलएम को विभिन्न टीमों और उनकी आवश्यकताओं, कार्यप्रवाह, या क्षेत्र-विशिष्ट कार्यों के लिए समायोजित किया जा सकता है। इसका मतलब यह भी है कि पूरी प्रणाली तुरंत मॉडल के रूप में चतुर हो सकती है, जिसमें परिवर्तन तेजी से सभी इंटरफेस पर प्रसारित होते हैं।

साइबर सुरक्षा के लिए एलएलएम का जोखिम

एक नई प्रौद्योगिकी के रूप में जिसका एक छोटा रिकॉर्ड है, एलएलएम में गंभीर जोखिम हैं। और भी बुरा, इन जोखिमों की पूरी सीमा को समझना चुनौतीपूर्ण है क्योंकि एलएलएम आउटपुट 100% भविष्यवाणी या प्रोग्रामेटिक नहीं हैं। उदाहरण के लिए, एलएलएम “हॉलुसिनेट” कर सकते हैं और कल्पनाशील डेटा के आधार पर उत्तर बना सकते हैं या प्रश्नों का गलत उत्तर दे सकते हैं। साइबर सुरक्षा उपयोग के मामलों के लिए एलएलएम को अपनाने से पहले, एक को संभावित जोखिमों पर विचार करना चाहिए, जिनमें शामिल हैं:

  • प्रॉम्प्ट इंजेक्शन: हमलावर प्रॉम्प्ट बना सकते हैं जो भ्रामक या हानिकारक आउटपुट उत्पन्न करने के लिए विशेष रूप से डिज़ाइन किए गए हैं। इस प्रकार का हमला एलएलएम की प्रवृत्ति का फायदा उठा सकता है जो प्राप्त प्रॉम्प्ट के आधार पर सामग्री उत्पन्न करता है। साइबर सुरक्षा उपयोग के मामलों में, प्रॉम्प्ट इंजेक्शन एक अंदरूनी हमले या एक अनधिकृत उपयोगकर्ता द्वारा हमले के रूप में सबसे जोखिम भरा हो सकता है जो प्रॉम्प्ट का उपयोग करके स्थायी रूप से सिस्टम आउटपुट को बदलने के लिए करता है, मॉडल व्यवहार को तिरछा करता है। यह अन्य उपयोगकर्ताओं के लिए असटीक या अमान्य आउटपुट उत्पन्न कर सकता है।
  • डेटा जहर: एलएलएम पर निर्भर डेटा जानबूझकर दूषित किया जा सकता है, जो उनके निर्णय लेने को समझौता करता है। साइबर सुरक्षा सेटिंग्स में, जहां संगठन उपकरण प्रदाताओं द्वारा प्रशिक्षित मॉडल का उपयोग कर रहे हैं, डेटा जहर तब हो सकता है जब मॉडल को विशिष्ट ग्राहक और उपयोग के मामले के लिए ट्यून किया जा रहा हो। यहाँ जोखिम यह हो सकता है कि एक अनधिकृत उपयोगकर्ता प्रशिक्षण प्रक्रिया को उलट करने के लिए – उदाहरण के लिए, दूषित लॉग फ़ाइलें – खराब डेटा जोड़ सकता है। एक अधिकृत उपयोगकर्ता भी अनजाने में ऐसा कर सकता है। परिणाम एलएलएम आउटपुट होगा जो खराब डेटा पर आधारित है।
  • हॉलुसिनेशन: जैसा कि पहले उल्लेख किया गया है, एलएलएम प्रॉम्प्ट या अंतर्निहित डेटा दोषों की गलत समझ के कारण तथ्यात्मक रूप से गलत, तर्कहीन या यहां तक कि दुर्भावनापूर्ण प्रतिक्रियाएं उत्पन्न कर सकते हैं। साइबर सुरक्षा उपयोग के मामलों में, हॉलुसिनेशन खतरा खुफिया, दोष ट्राइएज और उपचार, और अधिक में महत्वपूर्ण त्रुटियों का कारण बन सकता है। चूंकि साइबर सुरक्षा एक मिशन-महत्वपूर्ण गतिविधि है, एलएलएम को इन संदर्भों में हॉलुसिनेशन को प्रबंधित और रोकने के लिए एक उच्च मानक के लिए आयोजित किया जाना चाहिए।

जैसे ही एआई सिस्टम अधिक क्षमतावान होते जा रहे हैं, उनके सूचना सुरक्षा तैनाती तेजी से विस्तारित हो रही है। स्पष्ट रूप से, कई साइबर सुरक्षा कंपनियों ने पहले से ही गतिशील फिल्टरिंग के लिए पैटर्न मिलान और मशीन लर्निंग का उपयोग किया है। जेनएआई युग में नया क्या है वह इंटरएक्टिव एलएलएम है जो मौजूदा कार्यप्रवाह और डेटा पूल के ऊपर एक बुद्धिमत्ता परत प्रदान करता है, आदर्श रूप से साइबर सुरक्षा टीमों की दक्षता और क्षमताओं में सुधार करता है। दूसरे शब्दों में, जेनएआई सुरक्षा इंजीनियरों को कम प्रयास और समान संसाधनों के साथ अधिक करने में मदद कर सकता है, जिससे बेहतर प्रदर्शन और त्वरित प्रक्रियाएं होती हैं।

рдЕрдХреНрд╕рд╛ рдЯреЗрд▓рд░, "рдкреНрд░реЛрд╕реЗрд╕ рдорд╛рдЗрдирд┐рдВрдЧ: рдж рд╕рд┐рдХреНрдпреЛрд░рд┐рдЯреА рдПрдВрдЧрд▓" рдИрдмреБрдХ рдХреЗ рд▓реЗрдЦрдХ, рдЧрдЯреНрд╕реА рдореЗрдВ рдкреНрд░реЛрдбрдХреНрдЯ рдореИрдиреЗрдЬрдореЗрдВрдЯ рдХреЗ рдирд┐рджреЗрд╢рдХ рд╣реИрдВ, рдЬреЛ рд╕реБрд░рдХреНрд╖рд╛ рд╕рдВрдЪрд╛рд▓рди рдХреЗ рд▓рд┐рдП рдкреНрд░реЛрд╕реЗрд╕ рдорд╛рдЗрдирд┐рдВрдЧ рдореЗрдВ рд╡рд┐рд╢реЗрд╖рдЬреНрдЮрддрд╛ рд╡рд╛рд▓реА рдПрдХ рд╕рд╛рдЗрдмрд░ рд╕реБрд░рдХреНрд╖рд╛ рд╕реНрдЯрд╛рд░реНрдЯрдЕрдк рд╣реИред рдХреНрд▓рд╛рдЙрдб рд╕реБрд░рдХреНрд╖рд╛ рдореЗрдВ рдПрдХ рд╡рд┐рд╢реЗрд╖рдЬреНрдЮ, рдЕрдХреНрд╕рд╛ рдЯреНрд╡рд┐рд╕реНрдЯрд▓реЙрдХ рдореЗрдВ рдкрд╣рд▓реЗ рд╕рдорд╛рдзрд╛рди рдЗрдВрдЬреАрдирд┐рдпрд░ рдФрд░ рдПрд╕реНрдХреЗрд▓реЗрд╢рди рдЗрдВрдЬреАрдирд┐рдпрд░ рдереЗ, рдЬреЛ 2019 рдореЗрдВ рдкрд╛рд▓реЛ рдЕрд▓реНрдЯреЛ рдиреЗрдЯрд╡рд░реНрдХреНрд╕ рджреНрд╡рд╛рд░рд╛ $410M рдореЗрдВ рдЕрдзрд┐рдЧреНрд░рд╣рд┐рдд рдХрд┐рдП рдЧрдП рдЕрдЧреНрд░рдгреА рдХрдВрдЯреЗрдирд░ рд╕реБрд░рдХреНрд╖рд╛ рд╡рд┐рдХреНрд░реЗрддрд╛ рдереЗред рдкрд╛рд▓реЛ рдЕрд▓реНрдЯреЛ рдиреЗрдЯрд╡рд░реНрдХреНрд╕ рдореЗрдВ, рдЕрдХреНрд╕рд╛ рдиреЗ рдЙрддреНрдкрд╛рдж рд▓рд╛рдЗрди рдкреНрд░рдмрдВрдзрдХ рдХреЗ рд░реВрдк рдореЗрдВ рдХрд╛рд░реНрдп рдХрд┐рдпрд╛, рдЬреЛ рдПрдЬреЗрдВрдЯрд▓реЗрд╕ рд╡рд░реНрдХрд▓реЛрдб рд╕реБрд░рдХреНрд╖рд╛ рдХреЛ рдкреЗрд╢ рдХрд░рдиреЗ рдФрд░ рд╕рд╛рдорд╛рдиреНрдп рд░реВрдк рд╕реЗ рд╡рд░реНрдХрд▓реЛрдб рд╕реБрд░рдХреНрд╖рд╛ рдХреЛ рдкреНрд░рд┐рд╕реНрдорд╛ рдХреНрд▓рд╛рдЙрдб рдореЗрдВ рдПрдХреАрдХреГрдд рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдЬрд┐рдореНрдореЗрджрд╛рд░ рдерд╛, рдЬреЛ рдкрд╛рд▓реЛ рдЕрд▓реНрдЯреЛ рдиреЗрдЯрд╡рд░реНрдХреНрд╕ рдХрд╛ рдХреНрд▓рд╛рдЙрдб рдиреЗрдЯрд┐рд╡ рдПрдкреНрд▓рд┐рдХреЗрд╢рди рд╕реБрд░рдХреНрд╖рд╛ рдкреНрд▓реЗрдЯрдлрд╝реЙрд░реНрдо рд╣реИред рдЕрдкрдиреЗ рдХрд░рд┐рдпрд░ рдХреЗ рджреМрд░рд╛рди рдЕрдХреНрд╕рд╛ рдиреЗ рд╡рд┐рднрд┐рдиреНрди рдЙрджреНрдпреЛрдЧ рдХреНрд╖реЗрддреНрд░реЛрдВ рдХреА рдХрдИ рдЙрджреНрдпрдо рд╕рдВрдЧрдардиреЛрдВ рдХреЛ рдЙрдирдХреА рдХреНрд▓рд╛рдЙрдб рд╕реБрд░рдХреНрд╖рд╛ рджреГрд╖реНрдЯрд┐рдХреЛрдг рдореЗрдВ рд╕реБрдзрд╛рд░ рдХрд░рдиреЗ рдореЗрдВ рдорджрдж рдХреА, рдЬрд┐рдирдореЗрдВ 45% рдлреЙрд░реНрдЪреНрдпреВрди 100 рдХрдВрдкрдирд┐рдпрд╛рдВ рд╢рд╛рдорд┐рд▓ рд╣реИрдВред

рд╡рд┐рдЬреНрдЮрд╛рдкрди рдкреНрд░рдХрдЯреАрдХрд░рдг: Unite.AI рд╕рдЯреАрдХ рдЬрд╛рдирдХрд╛рд░реА рдФрд░ рд╕рдорд╛рдЪрд╛рд░ рдкреНрд░рджрд╛рди рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдХрдареЛрд░ рд╕рдВрдкрд╛рджрдХреАрдп рдорд╛рдирдХреЛрдВ рдХреЗ рдкреНрд░рддрд┐ рдкреНрд░рддрд┐рдмрджреНрдз рд╣реИред рдЬрдм рдЖрдк рдЙрди рдЙрддреНрдкрд╛рджреЛрдВ рдХреЗ рд▓рд┐рдВрдХ рдкрд░ рдХреНрд▓рд┐рдХ рдХрд░рддреЗ рд╣реИрдВ рдЬрд┐рдирдХреА рд╣рдордиреЗ рд╕рдореАрдХреНрд╖рд╛ рдХреА рд╣реИ, рддреЛ рд╣рдореЗрдВ рдореБрдЖрд╡рдЬрд╛ рдорд┐рд▓ рд╕рдХрддрд╛ рд╣реИред