विचार नेता
GenAI की विस्तृत छाया आपके एंटरप्राइज़ डेटा को जोखिम में डाल रही है

जेनरेटिव आर्टिफिशियल इंटेलिजेंस (GenAI) समाधान अब ऐसी चीज़ नहीं रह गए हैं जिनका एंटरप्राइज़ कर्मचारी केवल “परीक्षण” कर रहे हों। उन्हें तेजी से अपनाया और रोजमर्रा के काम में एकीकृत किया जा रहा है। एक रिपोर्ट के अनुसार, पिछले एक साल में 40% संगठनों ने दैनिक वर्कफ़्लो में GenAI के उपयोग की सूचना दी, और 80% से अधिक ने बताया कि उपयोगकर्ता साप्ताहिक रूप से इन टूल्स का उपयोग करते हैं।
लेकिन जहां AI अपनाने की दर बढ़ रही है, वहीं दृश्यता और नियंत्रण उसी गति से नहीं बढ़ रहे हैं। जैसे-जैसे GenAI ईमेल इनबॉक्स, कोड एडिटर, सहयोग सूट, वर्चुअल असिस्टेंट्स, और अन्य में एम्बेड हो रहा है, इसे प्रॉम्प्ट्स, अपलोड्स, और कॉपी-पेस्ट क्रियाओं के माध्यम से संवेदनशील डेटा की बढ़ती मात्रा तक पहुंच मिल रही है—जिनमें से सभी संभवतः पारंपरिक नियंत्रणों को दरकिनार कर देते हैं।
इसका परिणाम है शैडो डेटा का एक बढ़ता हुआ भंडार: व्यवसाय-महत्वपूर्ण जानकारी जो SaaS, क्लाउड, और ऑन-प्रिमाइसेस सेवाओं में दृश्यता, शासन, या प्रतिधारण के लिए सीमित सुरक्षा उपायों के साथ प्रवाहित हो रही है। AI समाधानों के साथ स्थायी और सुरक्षित रूप से नवाचार करने के लिए, यह महत्वपूर्ण है कि आधुनिक एंटरप्राइज़ इस अपनाने-नियंत्रण के अंतर को समझें और शैडो डेटा को उनके नियंत्रण से बाहर जाने से पहले उसे संबोधित करना सीखें।
GenAI की विस्तृत, अस्पष्ट छाया
शैडो डेटा की मूल चुनौती संदर्भ की कमी से उत्पन्न होती है। जहां शैडो IT की चुनौतियां रेस्ट में मौजूद फ़ाइलों, स्वीकृत अनुप्रयोगों, और ज्ञात निर्गम बिंदुओं तक सीमित हैं, वहीं AI-चालित शैडो डेटा की सीमाएं बहुत कम कठोर रूप से परिभाषित हैं। टीमें केवल अज्ञात टूल्स की खोज और सुरक्षा नहीं कर सकतीं; उन्हें ईमेल प्लेटफ़ॉर्म, क्लाउड स्टोरेज समाधान, और CRM जैसे स्वीकृत अनुप्रयोगों में एकीकृत AI मॉडल्स की निगरानी भी करने की आवश्यकता है। यह उन “सुरक्षित” समाधानों को उलट देता है जिनके साथ वे काम कर रहे हैं और निगरानी कर रहे हैं, और उनके खतरे के दायरे को विस्तृत कर देता है।
GenAI संवेदनशील डेटा के एंटरप्राइज़ आर्किटेक्चर में प्रवाहित होने के तरीके को भी बदल देता है। पारंपरिक SaaS समाधानों के अनुप्रयोग- और फ़ाइल-आधारित वर्कफ़्लो के विपरीत, यह एक निरंतर, संवादात्मक परत पर काम करता है जो उपयोगकर्ताओं को बेहतर परिणाम प्राप्त करने के लिए संदर्भ साझा करने के लिए प्रोत्साहित करता है। इससे उपयोगकर्ता नियमित कॉपी-पेस्ट क्रियाएं और अपलोड करते हैं जिनमें सोर्स कोड के स्निपेट्स, ग्राहक रिकॉर्ड्स, आंतरिक दस्तावेज़, और बहुत कुछ शामिल हो सकते हैं, जिनमें से सभी अपनी संबंधित संवेदनशीलता स्तरों के लिए उचित डेटा-साझाकरण शासन का अभाव है।
इसके अलावा, GenAI अपनाना अक्सर एक साफ, केंद्रीकृत पैटर्न का पालन नहीं करता है। कोई भी दो एंटरप्राइज़ डेटा उपयोगकर्ता बिल्कुल समान नहीं हैं, और अनुकूलित वर्कफ़्लो और समय बचाने वाले स्वचालन की उनकी खोज उन्हें कई AI समाधानों का लाभ उठाने के लिए प्रेरित कर सकती है, जो बदले में और भी अधिक विखंडित डेटा पथ बनाते हैं। इसे अपने एंटरप्राइज़ की पूरी कार्यबल में गुणा करें, और छाया अविश्वसनीय रूप से विस्तृत हो जाती है।
GenAI को ब्लॉक करना क्यों काम नहीं करेगा
इन खतरों का सामना करते हुए, कई संगठनों की आतुर प्रतिक्रिया GenAI टूल्स तक पहुंच को पूरी तरह से ब्लॉक करना—या अन्यथा कड़ाई से प्रतिबंधित करना—होती है। हालांकि यह एक समझदारी भरा दृष्टिकोण है, यह अक्सर उतना प्रभावी नहीं होता जितना एंटरप्राइज़ को उम्मीद हो सकती है। एक बार जब GenAI का जिन्न बोतल से बाहर आ जाता है, तो समझ लीजिए, उसे वापस नियंत्रित करना अविश्वसनीय रूप से कठिन होता है। कई कर्मचारी अपने दैनिक वर्कफ़्लो को सुव्यवस्थित करने के लिए इन टूल्स का उपयोग करते हैं, GenAI को अपनी कार्य योजना और निष्पादन में शामिल कर लेते हैं।
जब ऊपर से पहुंच प्रतिबंधित की जाती है, तो उपयोग रुकने की संभावना नहीं है; यह केवल नजरों से ओझल हो जाएगा। यदि कर्मचारी व्यक्तिगत या अप्रबंधित खातों पर स्विच कर जाते हैं, तो एंटरप्राइज़ इस बात की सभी दृश्यता खो देते हैं कि कौन सा डेटा अनुप्रयोगों द्वारा साझा और रखा जा रहा है। वास्तव में, एक रिपोर्ट में पाया गया कि 44% कर्मचारियों ने पहले ही AI का उपयोग ऐसे तरीकों से किया है जो नीतियों और दिशानिर्देशों का उल्लंघन करते हैं, जबकि एक अन्य अध्ययन ने बताया कि 75% कर्मचारियों ने जो अस्वीकृत AI टूल्स का उपयोग करते हैं, ने स्वीकार किया कि उन्होंने संभावित रूप से संवेदनशील जानकारी उनके साथ साझा की है। जब सद्भावना रखने वाले कर्मचारी अनजाने में सुरक्षा उपायों को दरकिनार कर देते हैं और संवेदनशील डेटा के लिए शासित वातावरण छोड़ने और अस्पष्ट नियंत्रण वाली प्रणालियों में प्रवेश करने के अवसर पैदा करते हैं, तो यह महत्वपूर्ण अंदरूनी जोखिम पैदा करता है, जो एक संगठन को औसतन $19.5 मिलियन सालाना का खर्च करा सकता है। उपयोगकर्ता गतिविधि को अप्रबंधित ब्राउज़र, व्यक्तिगत क्लाउड खातों, या विशिष्ट AI टूल्स में और धकेलकर, एंटरप्राइज़ अधिक खतरे के वेक्टर बनाते हैं जिन्हें सुरक्षा टीमें कभी नहीं देख सकती हैं।
इस तरह, शैडो डेटा केवल AI टूल्स तक पहुंच रखने वाले लापरवाह कर्मचारियों का एकमात्र परिणाम नहीं है। यह GenAI की सुलभ डिज़ाइन, संदर्भ की मांग, और समग्र सर्वव्यापकता का एक संरचनात्मक परिणाम है। और जब तक एंटरप्राइज़ यह दृश्यता हासिल नहीं कर लेते कि उनका शैडो डेटा कैसे और कहां प्रवाहित हो रहा है, GenAI अपनाना उसके जोखिम को प्रबंधित करने की उनकी क्षमता से आगे बढ़ता रहेगा।
दृश्यता और सुरक्षा के साथ शैडो डेटा को समाप्त करना
जबकि GenAI समाधानों को पूरी तरह से ब्लॉक करना संभवतः काम नहीं करेगा, एंटरप्राइज़ तीन मुख्य कार्रवाइयां करके AI नवाचार का समर्थन करते हुए शैडो डेटा के प्रसार को रोक सकते हैं:
1. एंड-टू-एंड दृश्यता स्थापित करें
एंटरप्राइज़ को अपने डेटा इकोसिस्टम की प्रभावी ढंग से रक्षा करने से पहले यह पता होना चाहिए कि वे वास्तव में किससे निपट रहे हैं। यह इस बात की पूरी तस्वीर बनाने से शुरू होता है कि उनके कर्मचारियों द्वारा किन GenAI अनुप्रयोगों का उपयोग किया जा रहा है, जिनमें स्वीकृत टूल्स में एम्बेडेड भी शामिल हैं। यह उन प्रकार के डेटा—वित्तीय, IP, PII, PHI, या अन्य विनियमित जानकारी—तक भी विस्तारित होता है जो इन अनुप्रयोगों के साथ साझा किए जा रहे हैं, साथ ही यह भी कि डेटा ऑन-प्रिम, SaaS, और क्लाउड नेटवर्क में कहां यात्रा कर रहा है। इस महत्वपूर्ण जानकारी के बिना, सुरक्षा और अनुपालन टीमें सटीक, वास्तविक दुनिया के कर्मचारी व्यवहार के बजाय धारणाओं को शासित करती रह जाती हैं।
2. संदर्भ-जागरूक डेटा सुरक्षा नीतियां लागू करें
यदि नियंत्रण इस बात के अनुकूल नहीं हो सकते कि GenAI का उपयोग कैसे किया जा रहा है, तो केवल दृश्यता पर्याप्त नहीं है। क्लासिक “अनुमति दें या ब्लॉक करें” नीतियां AI वर्कफ़्लो के लिए बहुत कठोर हैं जिनके लिए निरंतर, संवादात्मक डेटा विनिमय की आवश्यकता होती है। इन समाधानों की प्रभावी ढंग से रक्षा करने के लिए, टीमों को संदर्भ-जागरूक नीतियां बनानी चाहिए जो उपयोगकर्ताओं, डेटा, और गंतव्यों का वास्तविक समय में मूल्यांकन करें। यह उपयोगकर्ता व्यवहार पर यथार्थवादी और आनुपातिक कार्रवाई करना संभव बनाता है, जोखिम भरे अपलोड्स को ब्लॉक करना, संवेदनशील जानकारी को परिवेश से बाहर जाने से पहले संपादित करना, या कर्मचारियों को सुरक्षित विकल्प आजमाने का निर्देश देना। ये स्वचालित गार्डरेल पूर्ण विघटन या मैन्युअल हस्तक्षेप की तुलना में दिन-प्रतिदिन के कार्यों में अधिक प्रभावी ढंग से शामिल किए जा सकते हैं, जिससे GenAI का उपयोग उत्पादकता को बाधित किए बिना सुरक्षित हो जाता है।
3. सुसंगत नीति प्रवर्तन सुनिश्चित करें
एंटरप्राइज़ को डेटा सुरक्षा नीतियों का एक एकल सुसंगत सेट लागू करना चाहिए जहां भी काम होता है, और यह सब टीमों को उन टूल्स को छोड़ने के लिए मजबूर किए बिना जिन पर वे निर्भर हो गए हैं। उन्हें स्थापित टूल्स को “फाड़












