ठूंठ जेनरेटिव एआई को नियोजित करना: जेनेरेटिव एआई टूल्स के साइबर सुरक्षा निहितार्थ को उजागर करना - Unite.AI
हमसे जुडे

विचारक नेता

जेनरेटिव एआई को नियोजित करना: जेनेरेटिव एआई टूल्स के साइबर सुरक्षा निहितार्थों को खोलना

mm

प्रकाशित

 on

यह कहना उचित है कि जेनरेटिव एआई ने अब देश के हर बोर्डरूम और बिजनेस लीडर का ध्यान आकर्षित किया है। एक समय एक फ्रिंज तकनीक जिसे इस्तेमाल करना मुश्किल था, महारत हासिल करना तो दूर की बात, जेनरेटिव एआई के दरवाजे अब चैटजीपीटी या डीएएलएल-ई जैसे अनुप्रयोगों की बदौलत व्यापक रूप से खुले हो गए हैं। अब हम सभी उद्योगों और आयु समूहों में जनरेटिव एआई को थोक में अपनाते हुए देख रहे हैं क्योंकि कर्मचारी अपने लाभ के लिए प्रौद्योगिकी का लाभ उठाने के तरीकों का पता लगा रहे हैं।

हाल ही में एक सर्वेक्षण संकेत दिया कि जेन जेड के 29%, जेन एक्स के 28% और मिलेनियल उत्तरदाताओं के 27% अब अपने रोजमर्रा के काम के हिस्से के रूप में जेनरेटिव एआई टूल का उपयोग करते हैं। 2022 में, बड़े पैमाने पर जेनरेटिव एआई को अपनाना 23% था, और यह आंकड़ा 46 तक दोगुना होकर 2025% होने की उम्मीद है।

जेनरेटिव एआई एक नवोदित लेकिन तेजी से विकसित होने वाली तकनीक है जो लिखित पाठ और छवियों से लेकर वीडियो, संगीत और यहां तक ​​कि सॉफ्टवेयर कोड तक विभिन्न रूपों में मूल सामग्री उत्पन्न करने के लिए प्रशिक्षित मॉडल का लाभ उठाती है। बड़े भाषा मॉडल (एलएलएम) और विशाल डेटासेट का उपयोग करके, प्रौद्योगिकी तुरंत अद्वितीय सामग्री बना सकती है जो मानव कार्य से लगभग अप्रभेद्य है, और कई मामलों में अधिक सटीक और सम्मोहक है।

हालाँकि, जबकि व्यवसाय अपने दैनिक कार्यों का समर्थन करने के लिए जेनेरिक एआई का तेजी से उपयोग कर रहे हैं, और कर्मचारी तेजी से आगे बढ़ रहे हैं, अपनाने की गति और विनियमन की कमी ने महत्वपूर्ण साइबर सुरक्षा और नियामक अनुपालन चिंताओं को बढ़ा दिया है।

एक के अनुसार सर्वेक्षण सामान्य आबादी में, 80% से अधिक लोग चैटजीपीटी और जेनेरेटिव एआई द्वारा उत्पन्न सुरक्षा जोखिमों के बारे में चिंतित हैं, और सर्वेक्षण में शामिल 52% लोग चाहते हैं कि जेनेरेटिव एआई विकास को रोक दिया जाए ताकि नियम पकड़ में आ सकें। इस व्यापक भावना को स्वयं व्यवसायों द्वारा भी प्रतिध्वनित किया गया है 65% वरिष्ठ आईटी नेता सुरक्षा चिंताओं के कारण जेनेरिक एआई उपकरणों तक बाधारहित पहुंच को नजरअंदाज करने को तैयार नहीं।

जेनरेटिव एआई अभी भी अज्ञात अज्ञात है

जेनरेटिव एआई उपकरण डेटा पर फ़ीड करते हैं। ChatGPT और DALL-E द्वारा उपयोग किए जाने वाले मॉडल, इंटरनेट पर बाहरी या स्वतंत्र रूप से उपलब्ध डेटा पर प्रशिक्षित होते हैं, लेकिन इन टूल से अधिकतम लाभ प्राप्त करने के लिए, उपयोगकर्ताओं को बहुत विशिष्ट डेटा साझा करने की आवश्यकता होती है। अक्सर, चैटजीपीटी जैसे टूल का संकेत देते समय, उपयोगकर्ता सटीक, सर्वांगीण परिणाम प्राप्त करने के लिए संवेदनशील व्यावसायिक जानकारी साझा करेंगे। यह व्यवसायों के लिए बहुत सी अज्ञात चीजें पैदा करता है। जब स्वतंत्र रूप से उपलब्ध जेनरेटर एआई टूल का उपयोग करने की बात आती है तो संवेदनशील जानकारी की अनधिकृत पहुंच या अनपेक्षित प्रकटीकरण का जोखिम "बेक इन" हो जाता है।

यह जोखिम अपने आप में कोई बुरी बात नहीं है। मुद्दा यह है कि इन जोखिमों का अभी तक ठीक से पता नहीं लगाया जा सका है। आज तक, व्यापक रूप से उपलब्ध जेनेरिक एआई टूल का उपयोग करने का कोई वास्तविक व्यावसायिक प्रभाव विश्लेषण नहीं हुआ है, और जेनेरिक एआई के उपयोग के आसपास वैश्विक कानूनी और नियामक ढांचे अभी भी परिपक्वता के किसी भी रूप तक नहीं पहुंच पाए हैं।

विनियमन का कार्य अभी भी प्रगति पर है

नियामक पहले से ही गोपनीयता, डेटा सुरक्षा और उनके द्वारा उत्पादित डेटा की अखंडता के संदर्भ में जेनरेटिव एआई टूल का मूल्यांकन कर रहे हैं। हालाँकि, जैसा कि अक्सर उभरती हुई प्रौद्योगिकी के मामले में होता है, इसके उपयोग को समर्थन और नियंत्रित करने वाला नियामक तंत्र कई कदम पीछे चल रहा है। जबकि प्रौद्योगिकी का उपयोग कंपनियों और कर्मचारियों द्वारा दूर-दूर तक किया जा रहा है, नियामक ढांचे अभी भी ड्राइंग बोर्ड पर हैं।

यह व्यवसायों के लिए एक स्पष्ट और वर्तमान जोखिम पैदा करता है, जिसे फिलहाल उतनी गंभीरता से नहीं लिया जा रहा है, जितना लिया जाना चाहिए। अधिकारी स्वाभाविक रूप से इस बात में रुचि रखते हैं कि ये प्लेटफ़ॉर्म स्वचालन और विकास के अवसरों जैसे भौतिक व्यावसायिक लाभ कैसे पेश करेंगे, लेकिन जोखिम प्रबंधक पूछ रहे हैं कि इस तकनीक को कैसे विनियमित किया जाएगा, अंततः कानूनी निहितार्थ क्या हो सकते हैं, और कंपनी डेटा कैसे समझौता या उजागर हो सकता है . इनमें से कई उपकरण ब्राउज़र और इंटरनेट कनेक्शन वाले किसी भी उपयोगकर्ता के लिए स्वतंत्र रूप से उपलब्ध हैं, इसलिए जब वे विनियमन के लागू होने की प्रतीक्षा करते हैं, तो व्यवसायों को जेनरेटिव एआई उपयोग के आसपास अपने स्वयं के "घरेलू नियमों" के बारे में बहुत सावधानी से सोचना शुरू करना होगा।

जेनेरिक एआई को नियंत्रित करने में सीआईएसओ की भूमिका

नियामक ढांचे की अभी भी कमी के साथ, मुख्य सूचना सुरक्षा अधिकारियों (सीआईएसओ) को आगे आना चाहिए और अपने संगठनों के भीतर जेनरेटिव एआई के उपयोग के प्रबंधन में महत्वपूर्ण भूमिका निभानी चाहिए। उन्हें यह समझने की आवश्यकता है कि प्रौद्योगिकी का उपयोग कौन कर रहा है और किस उद्देश्य के लिए, जब कर्मचारी जेनरेटिव एआई टूल के साथ बातचीत कर रहे हों तो उद्यम की जानकारी की सुरक्षा कैसे करें, अंतर्निहित प्रौद्योगिकी के सुरक्षा जोखिमों का प्रबंधन कैसे करें, और मूल्य के साथ सुरक्षा ट्रेडऑफ़ को कैसे संतुलित करें। प्रौद्योगिकी की पेशकश.

यह कोई आसान काम नहीं है। पहला, आधिकारिक क्षमता में प्रौद्योगिकी को तैनात करना, और दूसरा, कर्मचारियों को बिना निगरानी के स्वतंत्र रूप से उपलब्ध उपकरणों का उपयोग करने की अनुमति देना, जिसके परिणामस्वरूप नकारात्मक और सकारात्मक दोनों परिणामों को निर्धारित करने के लिए विस्तृत जोखिम मूल्यांकन किया जाना चाहिए। जेनेरिक एआई अनुप्रयोगों की आसान-पहुंच प्रकृति को देखते हुए, सीआईएसओ को उनके उपयोग के आसपास कंपनी की नीति के बारे में सावधानी से सोचने की आवश्यकता होगी। क्या कर्मचारियों को अपना काम आसान बनाने के लिए ChatGPT या DALL-E जैसे टूल का लाभ उठाने के लिए स्वतंत्र होना चाहिए? या क्या इन उपकरणों तक पहुंच को किसी तरह से प्रतिबंधित या नियंत्रित किया जाना चाहिए, आंतरिक दिशानिर्देशों और रूपरेखाओं के साथ कि उनका उपयोग कैसे किया जाना चाहिए? एक स्पष्ट समस्या यह है कि यदि प्रौद्योगिकी के विकास की गति को देखते हुए, यदि आंतरिक उपयोग दिशानिर्देश बनाए भी गए, तो अंतिम रूप दिए जाने तक वे अप्रचलित हो सकते हैं।

इस समस्या को संबोधित करने का एक तरीका वास्तव में जेनरेटिव एआई टूल्स से ध्यान हटाकर डेटा वर्गीकरण और सुरक्षा पर ध्यान केंद्रित करना हो सकता है। डेटा वर्गीकरण हमेशा डेटा को उल्लंघन या लीक होने से बचाने का एक महत्वपूर्ण पहलू रहा है, और यह इस विशेष उपयोग के मामले में भी सच है। इसमें डेटा के प्रति संवेदनशीलता का स्तर निर्दिष्ट करना शामिल है, जो यह निर्धारित करता है कि इसका इलाज कैसे किया जाना चाहिए। क्या इसे एन्क्रिप्ट किया जाना चाहिए? क्या इसे रोकने के लिए इसे अवरुद्ध कर देना चाहिए? क्या इसे अधिसूचित किया जाना चाहिए? इस तक किसकी पहुंच होनी चाहिए और इसे कहां साझा करने की अनुमति है? उपकरण के बजाय डेटा के प्रवाह पर ध्यान केंद्रित करने से, सीआईएसओ और सुरक्षा अधिकारियों को उल्लिखित कुछ जोखिमों को कम करने की अधिक संभावना होगी।

सभी उभरती प्रौद्योगिकियों की तरह, जेनरेटिव एआई व्यवसायों के लिए वरदान और जोखिम दोनों है। जबकि यह स्वचालन और रचनात्मक अवधारणा जैसी रोमांचक नई क्षमताएं प्रदान करता है, यह डेटा सुरक्षा और बौद्धिक संपदा की सुरक्षा के आसपास कुछ जटिल चुनौतियां भी पेश करता है। जबकि विनियामक और कानूनी ढाँचे अभी भी ख़त्म हो रहे हैं, व्यवसायों को अवसर और जोखिम के बीच की रेखा पर चलने के लिए अपने स्वयं के नीति नियंत्रणों को लागू करना चाहिए जो उनकी समग्र सुरक्षा स्थिति को दर्शाते हैं। जेनरेटिव एआई व्यवसाय को आगे बढ़ाएगा, लेकिन हमें एक हाथ गाड़ी पर रखने में सावधानी बरतनी चाहिए।

साइबर सुरक्षा विशेषज्ञ के रूप में 25 वर्षों से अधिक के अनुभव के साथ, क्रिस हेटनर को दुनिया भर में उद्योगों, बुनियादी ढांचे और अर्थव्यवस्थाओं की सुरक्षा के लिए सी-सूट और बोर्ड स्तर पर साइबर जोखिम बढ़ाने के लिए जाना जाता है।

उन्होंने संयुक्त राज्य प्रतिभूति और विनिमय आयोग के अध्यक्ष के वरिष्ठ साइबर सुरक्षा सलाहकार और एसईसी में अनुपालन निरीक्षण और परीक्षा कार्यालय के लिए साइबर सुरक्षा के प्रमुख के रूप में कार्य किया।

वर्तमान में, क्रिस पैन्ज़ुरा की ग्राहक सुरक्षा सलाहकार परिषद के अध्यक्ष हैं, जो साइबर सुरक्षा जोखिम प्रशासन के लिए व्यवसाय, परिचालन और वित्तीय संरेखण को आगे बढ़ाने के मिशन के साथ डेटा लचीलेपन के बारे में शिक्षा और जागरूकता प्रदान करता है। पैन्ज़ुरा एक अग्रणी हाइब्रिड मल्टी-क्लाउड डेटा प्रबंधन कंपनी है।

इसके अतिरिक्त, वह नेशनल एसोसिएशन ऑफ कॉरपोरेट डायरेक्टर्स के साइबर जोखिम के विशेष सलाहकार, नैस्डैक इनसाइट काउंसिल के साइबर सुरक्षा और गोपनीयता के अध्यक्ष और टीसीआईजी में निदेशक मंडल के सदस्य हैं।