Connect with us

рдирд┐рдпрдВрддреНрд░рд┐рдд рднреВрд▓рдирд╛: рдПрдЖрдИ рдХреА рд╕реНрдореГрддрд┐ рдореЗрдВ рдЕрдЧрд▓реА рдмрдбрд╝реА рдЪреБрдиреМрддреА

рдХреГрддреНрд░рд┐рдо рдмреБрджреНрдзрд┐рдорддреНрддрд╛

рдирд┐рдпрдВрддреНрд░рд┐рдд рднреВрд▓рдирд╛: рдПрдЖрдИ рдХреА рд╕реНрдореГрддрд┐ рдореЗрдВ рдЕрдЧрд▓реА рдмрдбрд╝реА рдЪреБрдиреМрддреА

mm

कई वर्षों से, एआई क्षेत्र ने एक लक्ष्य पर ध्यान केंद्रित किया है: सिस्टम को बेहतर ढंग से याद रखने के लिए। हमने बड़े डेटासेट पर मॉडल को प्रशिक्षित किया और उनकी जानकारी को बनाए रखने और याद रखने की क्षमता में स्थिर सुधार किया। लेकिन अब हम एक असहज वास्तविकता को महसूस कर रहे हैं। वे सिस्टम जो कभी नहीं भूलते हैं, अब अपनी ही स्मृति द्वारा फंस गए हैं। जो एक बार ताकत की तरह लग रहा था, अब एक गंभीर कमजोरी बन गया है।

मानव प्राकृतिक रूप से भूल जाते हैं। हम जानकारी को छोड़ देते हैं, अनुकूलन करते हैं, और आगे बढ़ते हैं। एआई सिस्टम अलग तरह से काम करते हैं। वे सब कुछ याद रखते हैं जब तक कि हम उन्हें भूलने के लिए नहीं सिखाते। यह वास्तविक समस्याएं पैदा करता है। एआई गोपनीयता उल्लंघन, पुरानी जानकारी, निहित पूर्वाग्रह, और सीखने के नए कार्यों के साथ टूटने वाले सिस्टम से जूझता है। आगे की चुनौती एआई को और अधिक याद रखने के बारे में नहीं है। हमें एआई को बुद्धिमानी से भूलना सिखाने की आवश्यकता है।

भूलने के दो चेहरे

एआई में भूलना दो अलग-अलग रूपों में प्रकट होता है, प्रत्येक अपनी समस्याओं के साथ।

पहला विनाशकारी भूलना है। यह तब होता है जब एक न्यूरल नेटवर्क नए कार्यों पर प्रशिक्षण के बाद पहले से सीखी गई ज्ञान को खो देता है। उदाहरण के लिए, बिल्लियों और कुत्तों को पहचानने के लिए प्रशिक्षित एक मॉडल बिल्डिंग की पहचान सीखने के बाद उस क्षमता को भूल सकता है।

दूसरा रूप नियंत्रित भूलना है। यह जानबूझकर किया जाता है। इसमें प्रशिक्षित मॉडल से विशिष्ट जानकारी को हटाना शामिल है। जीडीपीआर जैसे गोपनीयता कानून लोगों को “भूलने का अधिकार” देते हैं, जिसके लिए कंपनियों को अनुरोध पर डेटा को मिटाना आवश्यक है। यह टूटे हुए सिस्टम को ठीक करने के बारे में नहीं है। यह जानबूझकर उस डेटा को हटाने के बारे में है जिसे कभी संग्रहीत नहीं किया जाना चाहिए या अनुरोध पर गायब हो जाना चाहिए।

इन दो समस्याओं में विपरीत दिशाओं में खींचतान है। एक को भूलने से रोकने की आवश्यकता है। दूसरे को भूलने की अनुमति देने की आवश्यकता है। एक ही समय में दोनों का प्रबंधन करना एआई की सबसे कठिन चुनौतियों में से एक है।

जब स्मृति दायित्व बन जाती है

एआई अनुसंधान ने लंबे समय से स्मृति में सुधार पर ध्यान केंद्रित किया है। मॉडल बड़े हो गए हैं, डेटासेट बड़े हो गए हैं, और संदर्भ खिड़कियां लंबी हो गई हैं। जीपीटी-4ो जैसे सिस्टम अब 128,000 टोकन के संदर्भ को संभाल सकते हैं, और क्लाउड 200,000 तक पहुंच सकता है। इन प्रगति ने प्रदर्शन में सुधार किया है लेकिन नए मुद्दे भी पेश किए हैं।

जब एक मॉडल बहुत अधिक याद रखता है, तो यह पुरानी या अप्रासंगिक जानकारी को याद कर सकता है। इससे गणना बर्बाद होती है और उपयोगकर्ताओं को भ्रमित किया जा सकता है। उदाहरण के लिए, अपनी कंपनी के ज्ञान आधार पर प्रशिक्षित एक ग्राहक सहायता चैटबॉट पर विचार करें। आप एक नीति को अद्यतन करते हैं, लेकिन कुछ बातचीत के बाद, बॉट पुरानी जानकारी पर वापस आ जाता है। यह होता है क्योंकि एआई स्मृति को ठीक से प्राथमिकता नहीं दे सकता है। एआई यह बताने में सक्षम नहीं है कि क्या वर्तमान है और क्या पुराना है।

गोपनीयता कानून चीजों को कठिन बनाते हैं। जीडीपीआर के तहत, जब एक उपयोगकर्ता अपने डेटा को हटाने का अनुरोध करता है, तो कंपनियों को इसे हटाना आवश्यक है। लेकिन एक एआई मॉडल से डेटा को हटाना एक कंप्यूटर से एक फ़ाइल को हटाने जैसा नहीं है। एक बार व्यक्तिगत डेटा मॉडल के पैरामीटर का हिस्सा बन जाता है, तो यह नेटवर्क के भीतर लाखों कनेक्शनों में फैल जाता है। पूरे सिस्टम को पुनः प्रशिक्षित करना महंगा और अक्सर असंभव है। शोध से पता चलता है कि बड़े मॉडल साइबर हमलों के लिए अधिक संवेदनशील होते हैं। मॉडल जितना बड़ा होता है, वह उतना ही अधिक स्मृति को संग्रहीत करता है और सावधानी से तैयार किए गए प्रॉम्प्ट के माध्यम से निजी डेटा को पुनः प्राप्त कर सकता है। हमलावर ऐसी जानकारी निकाल सकते हैं जिसे वे कभी नहीं पहुंच पाते।

भूलना क्या मुश्किल बनाता है

एआई मॉडल प्रशिक्षण उदाहरणों को एक फ़ोल्डर में फ़ाइलों की तरह संग्रहीत नहीं करते हैं। वे प्रशिक्षण जानकारी को अपने वजन और सक्रियण में संपीड़ित और मिलाते हैं। एक टुकड़ा डेटा को हटाना बिना किसी और चीज़ को परेशान किए बहुत मुश्किल है। साथ ही, हम विशिष्ट प्रशिक्षण डेटा को मॉडल के आंतरिक वजन को कैसे प्रभावित करता है, यह आसानी से ट्रैक नहीं कर सकते। एक बार मॉडल डेटा से सीखता है, तो वह ज्ञान अपने पैरामीटर के माध्यम से फैलता है जो ट्रेस करना मुश्किल है।

प्रत्येक हटाने के अनुरोध के बाद से मॉडल को पुनः प्रशिक्षित करना व्यावहारिक नहीं है। जब कोई जीडीपीआर के तहत अपने व्यक्तिगत डेटा को मिटाने का अनुरोध करता है, तो आपको इसे एआई सिस्टम से हटाने की आवश्यकता है। लेकिन उत्पादन सेटिंग्स में अधिकांश मॉडल को प्रत्येक बार से पुनः प्रशिक्षित करना बहुत महंगा और धीमा है।

भूलने की पुष्टि एक और चुनौती प्रस्तुत करती है। हम यह कैसे साबित कर सकते हैं कि डेटा वास्तव में भूल गया है? कंपनियों को यह प्रदर्शित करने के लिए बाहरी ऑडिट की आवश्यकता है कि उन्होंने जानकारी हटा दी है। विश्वसनीय पुष्टि विधियों के बिना, व्यवसाय अनुपालन साबित नहीं कर सकते हैं, और उपयोगकर्ता यह विश्वास नहीं कर सकते कि उनका डेटा वास्तव में गया है।

इन चुनौतियों ने मशीन अनलर्निंग नामक एक नए क्षेत्र को जन्म दिया है। यह विशिष्ट डेटा के प्रभाव को हटाने के लिए तकनीकों पर केंद्रित है। लेकिन ये तरीके अभी भी प्रारंभिक चरण में हैं। सटीक अनलर्निंग अक्सर मॉडल को पुनः प्रशिक्षित करने की आवश्यकता होती है, जबकि अनुमानित तरीके हटाए गए डेटा के निशान छोड़ सकते हैं।

स्थिरता-लचीलापन द्वंद्व

हमें जिस मुख्य चुनौती का सामना करने की आवश्यकता है, वह है विनाशकारी भूलने से रोकना और नियंत्रित भूलने को सक्षम करना। यह हमें एआई के सामने एक प्रमुख चुनौती की ओर ले जाता है: स्थिरता-लचीलापन द्वंद्व। मॉडल को इतना लचीला होना चाहिए कि वे नई जानकारी सीख सकें, लेकिन इतने स्थिर हों कि वे पुराने ज्ञान को बनाए रखें। यदि हम मॉडल को स्थिरता की ओर बहुत दूर धकेलते हैं, तो यह अनुकूलन नहीं कर सकता है। दूसरी ओर, यदि हम इसे लचीलेपन की ओर बहुत दूर धकेलते हैं, तो यह सब कुछ भूल सकता है जो यह पहले से जानता था।

मानव स्मृति इस द्वंद्व को संभालने के लिए उपयोगी सुराग प्रदान करती है। न्यूरोसाइंस बताता है कि भूलना एक दोष नहीं है। यह एक सक्रिय प्रक्रिया है। मस्तिष्क जानबूझकर पुरानी या कम मूल्य की जानकारी को हटा देता है या दबा देता है, ताकि नई यादें सुलभ रहें। जब लोग एक नई भाषा सीखते हैं, तो वे पुरानी भाषा को मिटा नहीं देते। लेकिन अगर वे इसका उपयोग बंद कर देते हैं, तो याद करना मुश्किल हो जाता है। जानकारी अभी भी वहीं है, बस प्राथमिकता में कम है। मस्तिष्क चयनात्मक दमन का उपयोग करता है, न कि हटाने का।

एआई शोधकर्ता समान विचारों को अपनाना शुरू कर रहे हैं। जनरेटिव रिप्ले तकनीक मस्तिष्क को यादों को कैसे संग्रहीत करता है, इसे नकल करती है। वे कच्चे डेटा को संग्रहीत करने के बजाय पिछले ज्ञान के स abstract प्रतिनिधित्व बनाते हैं। इससे विनाशकारी भूलने को कम किया जा सकता है और स्मृति को कॉम्पैक्ट रखा जा सकता है। एक और आशाजनक विचार बुद्धिमान क्षय है। संग्रहीत स्मृतियों को उनकी हाल की ताजगी, प्रासंगिकता और उपयोगिता के आधार पर स्कोर किया जाता है। कम महत्वपूर्ण स्मृतियां धीरे-धीरे प्राथमिकता खो देती हैं और कम बार पुनर्प्राप्त की जाती हैं। इससे जानकारी उपलब्ध रहती है लेकिन आवश्यकता के बिना छिपी रहती है। एआई सिस्टम बड़े ज्ञान आधार को प्रबंधित कर सकते हैं बिना संभावित रूप से मूल्यवान जानकारी को फेंके।

लक्ष्य मिटाना नहीं है, बल्कि याद रखने और भूलने को बुद्धिमानी से संतुलित करना है।

भविष्य क्या दिखता है

उद्योग तीन मुख्य दिशाओं में बढ़ रहा है।

पहला, हाइब्रिड मेमोरी आर्किटेक्चर उभर रहे हैं। ये सिस्टम एपिसोडिक मेमोरी (विशिष्ट अनुभव) को सेमेंटिक मेमोरी (सामान्य ज्ञान) के साथ जोड़ते हैं। वे महत्वपूर्ण जानकारी को बनाए रखने और कम प्रासंगिक चीजों को फीका करने के लिए रैंकिंग और प्रूनिंग तंत्र का उपयोग करते हैं। वेक्टर डेटाबेस जैसे पाइनकोन और वेविएट ऐसी स्मृति को कुशलता से प्रबंधित और पुनर्प्राप्त करने में मदद करते हैं।

दूसरा, गोपनीयता-सुधार प्रौद्योगिकियां गति पकड़ रही हैं। फेडरेटेड लर्निंग, फेडरेटेड लर्निंग, डिफरेंशियल प्राइवेसी, और होमोमॉर्फिक एन्क्रिप्शन जैसी तकनीकें संवेदनशील व्यक्तिगत डेटा की आवश्यकता को कम करती हैं। ये तरीके मॉडल को सुरक्षित रूप से या सुरक्षित रूप से प्रशिक्षित करने की अनुमति देते हैं बिना संवेदनशील उपयोगकर्ता जानकारी एकत्र किए। वे सीधे भूलने का समाधान नहीं करते हैं, लेकिन वे बाद में भूलने की आवश्यकता वाले व्यक्तिगत डेटा की मात्रा को कम करते हैं।

तीसरा, मशीन अनलर्निंग बेहतर हो रही है। नए तरीके विशिष्ट डेटा से जुड़े मॉडल पैरामीटर को समायोजित कर सकते हैं बिना पूरे मॉडल को पुनः प्रशिक्षित किए। ये दृष्टिकोण अभी भी प्रारंभिक चरण में हैं, लेकिन वे डेटा हटाने की आवश्यकताओं के अनुपालन की ओर बढ़ रहे हैं। फिर भी, यह सत्यापित करना कि अनलर्निंग वास्तव में डेटा के सभी निशान को हटा देती है, मुश्किल बना हुआ है। शोधकर्ता यह देखने के लिए परीक्षण विकसित कर रहे हैं कि यह कितनी अच्छी तरह काम करता है।

नीचे की पंक्ति

एआई सिस्टम याद रखने में उत्कृष्ट हो गए हैं। लेकिन वे अभी भी भूलने में खराब हैं। यह अंतर और भी कठिन होता जा रहा है। जैसे-जैसे एआई अधिक शक्तिशाली होता जा रहा है और नियम अधिक सख्त हो रहे हैं, बुद्धिमानी से भूलने की क्षमता याद रखने की क्षमता के बराबर मायने रखेगी। एआई को सुरक्षित, अनुकूलनीय और गोपनीयता-सचेत बनाने के लिए, हमें इसे सावधानी, चयनात्मक रूप से और बुद्धिमानी से भूलना सिखाना होगा। नियंत्रित भूलना न केवल डेटा गोपनीयता की रक्षा करेगा, बल्कि एआई सिस्टम को अपनी ही स्मृति के कैदी बने बिना विकसित करने में भी मदद करेगा।

рдбреЙ. рддрд╣рд╕реАрди рдЬрд╝рд┐рдпрд╛ рдХреЛрдореНрд╕реИрдЯреНрд╕ рдпреВрдирд┐рд╡рд░реНрд╕рд┐рдЯреА рдЗрд╕реНрд▓рд╛рдорд╛рдмрд╛рдж рдореЗрдВ рдПрдХ рдЯреЗрдиреНрдпреЛрд░реНрдб рдПрд╕реЛрд╕рд┐рдПрдЯ рдкреНрд░реЛрдлреЗрд╕рд░ рд╣реИрдВ, рдЬреЛ рдСрд╕реНрдЯреНрд░рд┐рдпрд╛ рдХреА рд╡рд┐рдпрдирд╛ рдЯреЗрдХреНрдиреЛрд▓реЙрдЬреА рдпреВрдирд┐рд╡рд░реНрд╕рд┐рдЯреА рд╕реЗ рдПрдЖрдИ рдореЗрдВ рдкреАрдПрдЪрдбреА рд░рдЦрддреЗ рд╣реИрдВред рдЖрд░реНрдЯрд┐рдлрд┐рд╢рд┐рдпрд▓ рдЗрдВрдЯреЗрд▓рд┐рдЬреЗрдВрд╕, рдорд╢реАрди рд▓рд░реНрдирд┐рдВрдЧ, рдбреЗрдЯрд╛ рд╕рд╛рдЗрдВрд╕ рдФрд░ рдХрдВрдкреНрдпреВрдЯрд░ рд╡рд┐рдЬрди рдореЗрдВ рд╡рд┐рд╢реЗрд╖рдЬреНрдЮрддрд╛, рдЙрдиреНрд╣реЛрдВрдиреЗ рдкреНрд░рддрд┐рд╖реНрдард┐рдд рд╡реИрдЬреНрдЮрд╛рдирд┐рдХ рдкрддреНрд░рд┐рдХрд╛рдУрдВ рдореЗрдВ рдкреНрд░рдХрд╛рд╢рди рдХреЗ рд╕рд╛рде рдорд╣рддреНрд╡рдкреВрд░реНрдг рдпреЛрдЧрджрд╛рди рджрд┐рдпрд╛ рд╣реИред рдбреЙ. рддрд╣рд╕реАрди рдиреЗ рдкреНрд░рд┐рдВрд╕рд┐рдкрд▓ рдЗрдиреНрд╡реЗрд╕реНрдЯрд┐рдЧреЗрдЯрд░ рдХреЗ рд░реВрдк рдореЗрдВ рд╡рд┐рднрд┐рдиреНрди рдФрджреНрдпреЛрдЧрд┐рдХ рдкрд░рд┐рдпреЛрдЬрдирд╛рдУрдВ рдХрд╛ рдиреЗрддреГрддреНрд╡ рдХрд┐рдпрд╛ рд╣реИ рдФрд░ рдПрдХ рдПрдЖрдИ рд╕рд▓рд╛рд╣рдХрд╛рд░ рдХреЗ рд░реВрдк рдореЗрдВ рдХрд╛рд░реНрдп рдХрд┐рдпрд╛ рд╣реИред