Connect with us

डेटा— AI नहीं— है मुख्य कुंजी

विचार नेता

डेटा— AI नहीं— है मुख्य कुंजी

mm

आर्टिफिशियल इंटेलिजेंस व्यवसायों में इतनी गहराई से समा गया है कि लगभग हर संचालन किसी न किसी तरह से इस तकनीक से प्रभावित हुआ है। और AI के उपयोग को विशेष रूप से देखें तो, हम संगठनों को मौजूदा प्रणालियों पर नवाचार और पुनरावृत्ति करने के लिए AI के नए रूपों में उतरते हुए देख रहे हैं। वास्तव में, IT नेताओं के एक हालिया सर्वेक्षण में पाया गया कि 98% या तो पहले से ही जेनरेटिव AI उपयोग के मामलों को व्यवस्थित करने के लिए एजेंटिक AI का उपयोग कर रहे हैं या निकट भविष्य में ऐसा करने की योजना बना रहे हैं। पिछले कुछ वर्षों में आई AI उपकरणों और प्रौद्योगिकियों के विस्फोट के बीच, AI एजेंट तेजी से सबसे लोकप्रिय में से एक बन रहे हैं। ये एजेंट संगठनों को कुछ भी और सब कुछ करने में मदद करते हैं—ग्राहक अनुभव और समर्थन में सुधार से लेकर आंतरिक प्रक्रियाओं को स्वचालित करने या पहले से उपयोग में आ रहे मौजूदा जेनरेटिव AI मॉडलों को अनुकूलित करने तक। लेकिन AI एजेंटों के कई लाभों, और कुल मिलाकर AI को, पूरे उद्यम में विस्तारित करना कठिनाई के बिना नहीं है। कई संगठनों को AI, और विशेष रूप से AI एजेंटों के साथ, बड़े पैमाने पर संघर्ष करने का कारण प्रौद्योगिकी नहीं, बल्कि विश्वास है। AI एजेंट, स्वभाव से, कई प्रणालियों में काम करते हैं। वे प्रणालियाँ चाहे कहीं भी हों, संभावना यही है कि वे अत्यधिक संवेदनशील डेटा पर निर्भर करती हैं—चाहे वह ग्राहक डेटा की भारी मात्रा हो, चिकित्सा जानकारी हो, या बैंकिंग और वित्तीय डेटा हो। यहीं पर समस्या निहित है। उचित डेटा गोपनीयता और सुरक्षा बुनियादी ढाँचे के बिना किसी भी AI मॉडल में भारी मात्रा में डेटा खींचना, उद्यमों को जोखिम की एक महत्वपूर्ण मात्रा के साथ छोड़ देता है। AI मॉडल का आउटपुट चाहे कुछ भी हो, यह तभी सार्थक है जब उसे प्रशिक्षित करने वाले डेटा पर भरोसा किया जा सके। लेकिन यह सिर्फ यह सुनिश्चित करने से कहीं अधिक है कि डेटा सुरक्षित है। विशेष रूप से AI एजेंटों के साथ, इन मॉडलों के संचालन के तरीके में बहुत अधिक स्वायत्तता शामिल होती है। यह सुनिश्चित करना कि वे इस समझ से लैस हैं कि डेटा तक किसकी पहुँच होनी चाहिए, इसे कब और कैसे एक्सेस किया जाना चाहिए, विश्वास बनाने के लिए महत्वपूर्ण है। हालाँकि, डेटा गोपनीयता की जटिलताओं पर काबू पाना असंभव नहीं है। सही डेटा नीतियों, मेटाडेटा शासन, API और उद्यम-ग्रेड प्राधिकरण ढाँचे के साथ, उद्यम IT नेता यह सुनिश्चित कर सकते हैं कि उनके AI को ईंधन देने वाला डेटा सुरक्षित और विश्वसनीय है। आइए एक नज़दीकी नज़र डालते हैं।

डेटा गोपनीयता और बड़े पैमाने पर AI की आवश्यकता को नेविगेट करना

किसी उद्यम में AI एजेंटों को एकीकृत करने का एक व्यापक लक्ष्य संचालन और प्रणालियों में वर्कफ़्लो को सुव्यवस्थित करना है। लेकिन बिना किसी सुरक्षा उपाय के ऐसा करने से रास्ते में संवेदनशील डेटा अनजाने में उजागर हो सकता है। ऐसे समय में जब डेटा उल्लंघन और दुर्भावनापूर्ण हमले लगातार विकसित हो रहे हैं, कोई भी डेटा जो अनधिकृत उपयोगकर्ताओं द्वारा उजागर या एक्सेस किया जाता है, आपदा का संकेत दे सकता है—न सिर्फ किसी AI पहल के लिए, बल्कि पूरे उद्यम के लिए। आईबीएम के अनुसार, 2025 तक डेटा उल्लंघन की औसत लागत $4 मिलियन से अधिक है। AI अपनाने की गति तेज है, अक्सर शासन और सुरक्षा को पीछे छोड़ते हुए क्योंकि उद्यम नेता अधिक नवाचार, गहन अंतर्दृष्टि और विकास के नए अवसरों के लिए प्रयास करते हैं। लेकिन AI अपनाने में वृद्धि के साथ ही, नियामक नीतियाँ और आवश्यकताएँ भी डेटा को सुरक्षित बनाए रखने के लिए कदम मिलाकर चलने के लिए विकसित हो रही हैं। GDPR से लेकर CCPA और यहाँ तक कि HIIPA जैसी दीर्घकालिक नीतियों तक, नियामक जटिलताएँ AI एजेंटों के स्केलिंग के लिए एक जटिल चुनौती पेश करती हैं। AI उपकरण जिन्हें भारी मात्रा में डेटा की आवश्यकता होती है, बिना जाँच के छोड़ दिए जाने पर, जोखिम की बढ़ी हुई मात्रा को आमंत्रित करते हैं। जैसे-जैसे AI मॉडल इन सभी आंतरिक प्रणालियों तक पहुँचते हैं, इस प्रक्रिया में संवेदनशील डेटा अक्सर स्थानांतरित और एक्सेस किया जाता है। डेटा की बात आती है, तो दुनिया भर की नियामक एजेंसियाँ गोपनीयता, प्रभावी शासन और मजबूत सुरक्षा सुनिश्चित करने पर अधिक जोर दे रही हैं। DORA जैसी अधिक हाल की नीतियाँ—EU में कार्यरत वित्तीय सेवा फर्मों के लिए ICT जोखिम प्रबंधन पर दिशानिर्देशों का एक सेट—स्पष्ट रूप से ICT घटना वर्गीकरण और रिपोर्टिंग की आवश्यकता रखती हैं, जिनमें वे भी शामिल हैं जो डेटा की गोपनीयता, अखंडता या उपलब्धता को प्रभावित करती हैं। और हालाँकि इस नीति का प्राथमिक जोर परिचालन लचीलापन पर है, इसके निहितार्थ AI अपनाने तक भी फैले हुए हैं। जैसे-जैसे अधिक AI पहलें, जिनमें AI एजेंटों वाली भी शामिल हैं, उद्यम स्तर पर डेटा का उपयोग करती हैं, अनधिकृत पहुँच का जोखिम बढ़ता है। यदि किसी AI परियोजना के परिणामस्वरूप डेटा की हानि या उजागर होना होता है, तो इस तरह के नियम तुरंत प्रासंगिक हो जाएँगे। इतना कुछ दाँव पर लगा होने के साथ, यह महत्वपूर्ण है कि उद्यम संगठन इस बात से आँखें न चुराएँ कि सुरक्षा, शासन और डेटा पहुँच कितनी महत्वपूर्ण हैं।

AI एजेंटों को ईंधन देने के लिए आधार का निर्माण

उद्यमों को एक ऐसी नींव बनाने की आवश्यकता है जो प्रभावी शासन में निहित हो, दृढ़ सुरक्षा उपायों और लागू करने योग्य नियमों के साथ जो परिभाषित करते हैं कि एजेंट क्या कर सकते हैं और क्या नहीं कर सकते। इस नींव के केंद्र में डेटा शासन निहित है—उच्च-स्तरीय नीतियाँ, मानक और संरचनाएँ जो प्रबंधित करती हैं कि संगठन भर में डेटा का जिम्मेदारी से उपयोग कैसे किया जाता है। ये नीतियाँ सुनिश्चित करती हैं कि एजेंट अपनी भूमिकाओं से आगे न बढ़ें, चाहे वह प्रतिबंधित डेटा सेट तक पहुँचकर हो या मानवीय निगरानी के बिना प्रक्रियाएँ शुरू करके। एक मजबूत डेटा शासन नीति को लागू करना कुछ प्रमुख बिंदुओं से शुरू होना चाहिए। इसमें जवाबदेही और स्वामित्व, डेटा गुणवत्ता और स्थिरता, सुरक्षा और गोपनीयता, अनुपालन और लेखा परीक्षा योग्यता, और पारदर्शिता और अनुरेखणीयता शामिल हैं। इन बिंदुओं को शासन की आधारशिला के रूप में रखते हुए, उद्यम नेताओं को निर्णय लेने पर अधिक नियंत्रण, अपने डेटा पर अधिक विश्वास और डेटा साइलो द्वारा पैदा किए गए नियामक जोखिम में कमी प्राप्त होती है। यह मेटाडेटा प्रबंधन, डेटा वर्गीकरण और लिनिएज जैसी क्षमताओं का उपयोग करके किया जाता है ताकि यह पारदर्शिता और दृश्यता बढ़ाई जा सके कि कौन, या कौन से AI उपकरण, पहुँच सकते हैं। ये प्रत्येक तंत्र उद्यमों को यह पता लगाने की अनुमति देते हैं कि डेटा कहाँ से आता है, यह कैसे प्रवाहित होता है, और इसे कैसे रूपांतरित किया जाता है।

तकनीक महत्वपूर्ण है, लेकिन विश्वास सर्वोपरि है

जब भी कोई नया AI मॉडल या नवाचार दृश्य पर आता है, तो अपनाने की दर बढ़ जाती है। लेकिन किसी भी AI पहल के साथ, जोखिम उभरते हैं—हालाँकि हमेशा वहाँ नहीं जहाँ कोई सोच सकता है। नए उपकरणों को अपनाने में अक्सर बाधा डालने वाली तकनीकी चुनौतियाँ हमेशा धीमी AI एकीकरण के पीछे अपराधी नहीं होती हैं। अक्सर यह डेटा पर आकर टिक जाता है। विशेष रूप से, उस डेटा में विश्वास और गोपनीयता को लेकर चिंताएँ। क्योंकि AI इतनी तेजी से आगे बढ़ता है, कभी-कभी यह सुनिश्चित करना एक चुनौती हो सकती है कि एक्सेस नियंत्रण, डेटा शासन, लिनिएज और अनुपालन जैसी चीजें उस गति के साथ बनी रहें। शासन विश्वास का एक महत्वपूर्ण हिस्सा है, लेकिन इसके लिए प्रभावी मूल्यांकनों की भी आवश्यकता होती है। विशेष रूप से एजेंटिक AI के भीतर, मानकीकृत मूल्यांकनों में अभी भी एक बड़ा अंतर है, फिर भी विश्वसनीय और सुरक्षित रूप से व्यवहार करने वाली प्रणालियों को साबित करने के लिए वे आवश्यक हैं। चाहे आप आंतरिक प्रणालियों के प्रदर्शन को अनुकूलित करना चाहते हों, धोखाधड़ी का पता लगाने में सुधार करना चाहते हों, या बस ग्राहकों के लिए ग्राहक अनुभव को सहज बनाना चाहते हों, सर्वोत्तम AI एजेंट, और कुल मिलाकर AI पहलें, सभी विश्वसनीय डेटा, गोपनीयता और सुरक्षा की नींव पर बनी हैं।

//www.cloudera.com/">Cloudera की मुख्य AI आर्किटेक्ट हैं। वह Verta की संस्थापक और सीईओ हैं, जो मेनलो पार्क, कैलिफ़ोर्निया स्थित Verta ऑपरेशनल AI और LLM प्लेटफ़ॉर्म तथा Verta मॉडल कैटलॉग प्रदाता है, जिसे हाल ही में Cloudera ने अधिग्रहित किया है। मानसी ने MIT CSAIL में रहते हुए प्रयोग प्रबंधन और ट्रैकिंग का आविष्कार किया, जब उन्होंने ModelDB बनाया, जो फॉर्च्यून-500 कंपनियों में तैनात पहली ओपन-सोर्स मॉडल प्रबंधन प्रणाली और MLflow का पूर्वज है। MIT से पीएचडी प्राप्त करने के बाद, वर्तक ने Twitter में डेटा साइंस की भूमिकाएँ निभाईं, जहाँ उन्होंने सामग्री सिफारिश के लिए डीप लर्निंग पर काम किया, और Google में, जहाँ उन्होंने डायनामिक विज्ञापन-लक्ष्यीकरण पर काम किया।