Connect with us

GenAI की विस्तृत छाया आपके एंटरप्राइज़ डेटा को जोखिम में डाल रही है

विचार नेता

GenAI की विस्तृत छाया आपके एंटरप्राइज़ डेटा को जोखिम में डाल रही है

mm
A conceptual widescreen visualization of Generative AI (GenAI) shadow data, showing a glowing stream of digital particles emanating from a laptop. The stream splits, with some data flowing toward a sanctioned enterprise server and other disjointed streams drifting toward an unmonitored personal mobile device, illustrating a data visibility and governance gap in a modern office.

जेनरेटिव आर्टिफिशियल इंटेलिजेंस (GenAI) समाधान अब ऐसी चीज़ नहीं रह गए हैं जिनका एंटरप्राइज़ कर्मचारी केवल “परीक्षण” कर रहे हों। उन्हें तेजी से अपनाया और रोजमर्रा के काम में एकीकृत किया जा रहा है। एक रिपोर्ट के अनुसार, पिछले एक साल में 40% संगठनों ने दैनिक वर्कफ़्लो में GenAI के उपयोग की सूचना दी, और 80% से अधिक ने बताया कि उपयोगकर्ता साप्ताहिक रूप से इन टूल्स का उपयोग करते हैं।

लेकिन जहां AI अपनाने की दर बढ़ रही है, वहीं दृश्यता और नियंत्रण उसी गति से नहीं बढ़ रहे हैं। जैसे-जैसे GenAI ईमेल इनबॉक्स, कोड एडिटर, सहयोग सूट, वर्चुअल असिस्टेंट्स, और अन्य में एम्बेड हो रहा है, इसे प्रॉम्प्ट्स, अपलोड्स, और कॉपी-पेस्ट क्रियाओं के माध्यम से संवेदनशील डेटा की बढ़ती मात्रा तक पहुंच मिल रही है—जिनमें से सभी संभवतः पारंपरिक नियंत्रणों को दरकिनार कर देते हैं।

इसका परिणाम है शैडो डेटा का एक बढ़ता हुआ भंडार: व्यवसाय-महत्वपूर्ण जानकारी जो SaaS, क्लाउड, और ऑन-प्रिमाइसेस सेवाओं में दृश्यता, शासन, या प्रतिधारण के लिए सीमित सुरक्षा उपायों के साथ प्रवाहित हो रही है। AI समाधानों के साथ स्थायी और सुरक्षित रूप से नवाचार करने के लिए, यह महत्वपूर्ण है कि आधुनिक एंटरप्राइज़ इस अपनाने-नियंत्रण के अंतर को समझें और शैडो डेटा को उनके नियंत्रण से बाहर जाने से पहले उसे संबोधित करना सीखें।

GenAI की विस्तृत, अस्पष्ट छाया

शैडो डेटा की मूल चुनौती संदर्भ की कमी से उत्पन्न होती है। जहां शैडो IT की चुनौतियां रेस्ट में मौजूद फ़ाइलों, स्वीकृत अनुप्रयोगों, और ज्ञात निर्गम बिंदुओं तक सीमित हैं, वहीं AI-चालित शैडो डेटा की सीमाएं बहुत कम कठोर रूप से परिभाषित हैं। टीमें केवल अज्ञात टूल्स की खोज और सुरक्षा नहीं कर सकतीं; उन्हें ईमेल प्लेटफ़ॉर्म, क्लाउड स्टोरेज समाधान, और CRM जैसे स्वीकृत अनुप्रयोगों में एकीकृत AI मॉडल्स की निगरानी भी करने की आवश्यकता है। यह उन “सुरक्षित” समाधानों को उलट देता है जिनके साथ वे काम कर रहे हैं और निगरानी कर रहे हैं, और उनके खतरे के दायरे को विस्तृत कर देता है।

GenAI संवेदनशील डेटा के एंटरप्राइज़ आर्किटेक्चर में प्रवाहित होने के तरीके को भी बदल देता है। पारंपरिक SaaS समाधानों के अनुप्रयोग- और फ़ाइल-आधारित वर्कफ़्लो के विपरीत, यह एक निरंतर, संवादात्मक परत पर काम करता है जो उपयोगकर्ताओं को बेहतर परिणाम प्राप्त करने के लिए संदर्भ साझा करने के लिए प्रोत्साहित करता है। इससे उपयोगकर्ता नियमित कॉपी-पेस्ट क्रियाएं और अपलोड करते हैं जिनमें सोर्स कोड के स्निपेट्स, ग्राहक रिकॉर्ड्स, आंतरिक दस्तावेज़, और बहुत कुछ शामिल हो सकते हैं, जिनमें से सभी अपनी संबंधित संवेदनशीलता स्तरों के लिए उचित डेटा-साझाकरण शासन का अभाव है।

इसके अलावा, GenAI अपनाना अक्सर एक साफ, केंद्रीकृत पैटर्न का पालन नहीं करता है। कोई भी दो एंटरप्राइज़ डेटा उपयोगकर्ता बिल्कुल समान नहीं हैं, और अनुकूलित वर्कफ़्लो और समय बचाने वाले स्वचालन की उनकी खोज उन्हें कई AI समाधानों का लाभ उठाने के लिए प्रेरित कर सकती है, जो बदले में और भी अधिक विखंडित डेटा पथ बनाते हैं। इसे अपने एंटरप्राइज़ की पूरी कार्यबल में गुणा करें, और छाया अविश्वसनीय रूप से विस्तृत हो जाती है।

GenAI को ब्लॉक करना क्यों काम नहीं करेगा

इन खतरों का सामना करते हुए, कई संगठनों की आतुर प्रतिक्रिया GenAI टूल्स तक पहुंच को पूरी तरह से ब्लॉक करना—या अन्यथा कड़ाई से प्रतिबंधित करना—होती है। हालांकि यह एक समझदारी भरा दृष्टिकोण है, यह अक्सर उतना प्रभावी नहीं होता जितना एंटरप्राइज़ को उम्मीद हो सकती है। एक बार जब GenAI का जिन्न बोतल से बाहर आ जाता है, तो समझ लीजिए, उसे वापस नियंत्रित करना अविश्वसनीय रूप से कठिन होता है। कई कर्मचारी अपने दैनिक वर्कफ़्लो को सुव्यवस्थित करने के लिए इन टूल्स का उपयोग करते हैं, GenAI को अपनी कार्य योजना और निष्पादन में शामिल कर लेते हैं।

जब ऊपर से पहुंच प्रतिबंधित की जाती है, तो उपयोग रुकने की संभावना नहीं है; यह केवल नजरों से ओझल हो जाएगा। यदि कर्मचारी व्यक्तिगत या अप्रबंधित खातों पर स्विच कर जाते हैं, तो एंटरप्राइज़ इस बात की सभी दृश्यता खो देते हैं कि कौन सा डेटा अनुप्रयोगों द्वारा साझा और रखा जा रहा है। वास्तव में, एक रिपोर्ट में पाया गया कि 44% कर्मचारियों ने पहले ही AI का उपयोग ऐसे तरीकों से किया है जो नीतियों और दिशानिर्देशों का उल्लंघन करते हैं, जबकि एक अन्य अध्ययन ने बताया कि 75% कर्मचारियों ने जो अस्वीकृत AI टूल्स का उपयोग करते हैं, ने स्वीकार किया कि उन्होंने संभावित रूप से संवेदनशील जानकारी उनके साथ साझा की है। जब सद्भावना रखने वाले कर्मचारी अनजाने में सुरक्षा उपायों को दरकिनार कर देते हैं और संवेदनशील डेटा के लिए शासित वातावरण छोड़ने और अस्पष्ट नियंत्रण वाली प्रणालियों में प्रवेश करने के अवसर पैदा करते हैं, तो यह महत्वपूर्ण अंदरूनी जोखिम पैदा करता है, जो एक संगठन को औसतन $19.5 मिलियन सालाना का खर्च करा सकता है। उपयोगकर्ता गतिविधि को अप्रबंधित ब्राउज़र, व्यक्तिगत क्लाउड खातों, या विशिष्ट AI टूल्स में और धकेलकर, एंटरप्राइज़ अधिक खतरे के वेक्टर बनाते हैं जिन्हें सुरक्षा टीमें कभी नहीं देख सकती हैं।

इस तरह, शैडो डेटा केवल AI टूल्स तक पहुंच रखने वाले लापरवाह कर्मचारियों का एकमात्र परिणाम नहीं है। यह GenAI की सुलभ डिज़ाइन, संदर्भ की मांग, और समग्र सर्वव्यापकता का एक संरचनात्मक परिणाम है। और जब तक एंटरप्राइज़ यह दृश्यता हासिल नहीं कर लेते कि उनका शैडो डेटा कैसे और कहां प्रवाहित हो रहा है, GenAI अपनाना उसके जोखिम को प्रबंधित करने की उनकी क्षमता से आगे बढ़ता रहेगा।

दृश्यता और सुरक्षा के साथ शैडो डेटा को समाप्त करना

जबकि GenAI समाधानों को पूरी तरह से ब्लॉक करना संभवतः काम नहीं करेगा, एंटरप्राइज़ तीन मुख्य कार्रवाइयां करके AI नवाचार का समर्थन करते हुए शैडो डेटा के प्रसार को रोक सकते हैं:

1. एंड-टू-एंड दृश्यता स्थापित करें

एंटरप्राइज़ को अपने डेटा इकोसिस्टम की प्रभावी ढंग से रक्षा करने से पहले यह पता होना चाहिए कि वे वास्तव में किससे निपट रहे हैं। यह इस बात की पूरी तस्वीर बनाने से शुरू होता है कि उनके कर्मचारियों द्वारा किन GenAI अनुप्रयोगों का उपयोग किया जा रहा है, जिनमें स्वीकृत टूल्स में एम्बेडेड भी शामिल हैं। यह उन प्रकार के डेटा—वित्तीय, IP, PII, PHI, या अन्य विनियमित जानकारी—तक भी विस्तारित होता है जो इन अनुप्रयोगों के साथ साझा किए जा रहे हैं, साथ ही यह भी कि डेटा ऑन-प्रिम, SaaS, और क्लाउड नेटवर्क में कहां यात्रा कर रहा है। इस महत्वपूर्ण जानकारी के बिना, सुरक्षा और अनुपालन टीमें सटीक, वास्तविक दुनिया के कर्मचारी व्यवहार के बजाय धारणाओं को शासित करती रह जाती हैं।

2. संदर्भ-जागरूक डेटा सुरक्षा नीतियां लागू करें

यदि नियंत्रण इस बात के अनुकूल नहीं हो सकते कि GenAI का उपयोग कैसे किया जा रहा है, तो केवल दृश्यता पर्याप्त नहीं है। क्लासिक “अनुमति दें या ब्लॉक करें” नीतियां AI वर्कफ़्लो के लिए बहुत कठोर हैं जिनके लिए निरंतर, संवादात्मक डेटा विनिमय की आवश्यकता होती है। इन समाधानों की प्रभावी ढंग से रक्षा करने के लिए, टीमों को संदर्भ-जागरूक नीतियां बनानी चाहिए जो उपयोगकर्ताओं, डेटा, और गंतव्यों का वास्तविक समय में मूल्यांकन करें। यह उपयोगकर्ता व्यवहार पर यथार्थवादी और आनुपातिक कार्रवाई करना संभव बनाता है, जोखिम भरे अपलोड्स को ब्लॉक करना, संवेदनशील जानकारी को परिवेश से बाहर जाने से पहले संपादित करना, या कर्मचारियों को सुरक्षित विकल्प आजमाने का निर्देश देना। ये स्वचालित गार्डरेल पूर्ण विघटन या मैन्युअल हस्तक्षेप की तुलना में दिन-प्रतिदिन के कार्यों में अधिक प्रभावी ढंग से शामिल किए जा सकते हैं, जिससे GenAI का उपयोग उत्पादकता को बाधित किए बिना सुरक्षित हो जाता है।

3. सुसंगत नीति प्रवर्तन सुनिश्चित करें

एंटरप्राइज़ को डेटा सुरक्षा नीतियों का एक एकल सुसंगत सेट लागू करना चाहिए जहां भी काम होता है, और यह सब टीमों को उन टूल्स को छोड़ने के लिए मजबूर किए बिना जिन पर वे निर्भर हो गए हैं। उन्हें स्थापित टूल्स को “फाड़

Jesse Grindeland offers over two decades of innovative leadership across global sales, channels, and market strategies, making him an accomplished industry leader in today’s evolving landscape. Currently serving as VP of Global Channels Alliances at Skyhigh Security, Jesse is driving the evolution of the company’s partner ecosystem, to accelerate market execution and customer success, globally. Jesse has previously held roles at Microsoft, VMware, and Zscaler, where he led global teams across marketing, sales, engineering, and alliances.