рд╕рд╛рдХреНрд╖рд╛рддреНрдХрд╛рд░
рдбреЙ рдореИрдерд┐рд▓реНрдбреЗ рдкрд╛рд╡рд┐рд╕, рд╣реЗрдб рдСрдл рд▓реАрдЧрд▓, рдУрдкрдирдУрд░рд┐рдЬрд┐рдиреНрд╕ – рд╕рд╛рдХреНрд╖рд╛рддреНрдХрд╛рд░ рд╢реНрд░реГрдВрдЦрд▓рд╛

डॉ मैथिल्डे पाविस, ओपनओरिजिन्स में हेड ऑफ लीगल, एआई नियमन और डिजिटल मीडिया शासन में एक अग्रणी विशेषज्ञ हैं, जो डीपफेक्स, सिंथेटिक मीडिया और सामग्री प्रोवेनेंस में माहिर हैं। वह कंपनियों, सरकारों और ट्रेड यूनियनों को जनरेटिव एआई में अनुपालन, लाइसेंसिंग और जोखिम के बारे में सलाह देती है, और माइक्रोसॉफ्ट और इलेवनलैब्स के साथ एआई नीति और रणनीति पर काम कर चुकी हैं। उन्होंने यूनेस्को को एआई और बौद्धिक संपदा पर भी सलाह दी है, और यूके के नीति निर्माताओं को नियमित रूप से विशेषज्ञ साक्ष्य प्रदान करती हैं।
ओपनओरिजिन्स गलत सूचना और डीपफेक्स से लड़ने के लिए डिजिटल सामग्री के सत्यापित, टैम्पर-प्रूफ रिकॉर्ड बनाने के लिए प्रौद्योगिकी विकसित करता है। इसका प्लेटफ़ॉर्म स्पष्ट प्रोवेनेंस स्थापित करने पर केंद्रित है, जिससे मीडिया, निर्माताओं और प्लेटफ़ॉर्म को यह साबित करने की अनुमति मिलती है कि सामग्री कब और कैसे बनाई, संपादित और वितरित की गई थी – जो कि सिंथेटिक मीडिया अधिक उन्नत और पता लगाने में मुश्किल होने के medida बढ़ती महत्वपूर्ण क्षमता है।
आप सरकारों, वैश्विक संस्थानों जैसे यूनेस्को और माइक्रोसॉफ्ट और इलेवनलैब्स जैसी कंपनियों को एआई नियमन पर सलाह दी है। आपको विशेष रूप से डीपफेक्स, डिजिटल प्रतिकृतियों और सिंथेटिक मीडिया पर ध्यान केंद्रित करने के लिए क्या प्रेरित किया, और उस यात्रा ने आपको रेप्लिक फाउंड करने के निर्णय को कैसे आकार दिया?
मेरा डीपफेक्स पर काम तकनीक से नहीं शुरू हुआ – यह एक बहुत पुरानी कानूनी पहेली से शुरू हुआ। जब मैंने 2013 में अपने पीएचडी के लिए बौद्धिक संपदा पर शोध करना शुरू किया, तो मुझे यह देखकर आश्चर्य हुआ कि लेखकों, संगीतकारों या फिल्म निर्माताओं की तुलना में प्रदर्शनकारियों को कितना कम संरक्षण प्राप्त है। व्यवहार में इसका अर्थ है कि आपके शब्द या आपका संगीत कानून में आपकी आवाज, आपके चेहरे और आपके शरीर से बेहतर संरक्षित है। यह असंतुलन अजीब लगा, और इसने मुझे एक गहरा प्रश्न पूछने के लिए प्रेरित किया: हम किसी ऐसे व्यक्ति के काम को कैसे सांस्कृतिक और कानूनी रूप से मूल्य देते हैं जिसका योगदान स्क्रीन पर उनका चेहरा, आवाज और शरीर है?
इस प्रश्न ने मुझे प्रदर्शनकारियों के अधिकारों और डेटा में ले जाया। उस समय, यह एक निचे क्षेत्र माना जाता था जिसका व्यावसायिक प्रासंगिकता कम थी। मुझे सक्रिय रूप से सलाह दी गई कि मैं पेटेंट या पारंपरिक कॉपीराइट जैसे अधिक “लाभदायक” क्षेत्रों में जाऊं। यह धारणा थी कि किसी व्यक्ति के समानता या आवाज के मुद्दों को मुख्य रूप से अनौपचारिक रूप से प्रबंधित किया जाता है – उद्योग के मानकों या “हॉलीवुड में सज्जनों के समझौतों” के माध्यम से। लेकिन मेरे लिए, यह अनौपचारिक संरक्षण की कमी एक अंतर को इंगित करती थी, न कि मेरे शोध के लिए एक मृत अंत।
आज, लगभग हर कोई एक प्रदर्शनकारी है। हमारे जीवन को कैमरों के माध्यम से मध्यस्थ किया जाता है – फोन, लैपटॉप, वीडियो कॉल और सोशल प्लेटफ़ॉर्म पर। चाहे वह काम के लिए हो या व्यक्तिगत उपयोग के लिए, लोग लगातार अपने आप के संस्करणों को रिकॉर्ड और साझा कर रहे हैं। जो कानूनी प्रश्न एक बार मुख्य रूप से अभिनेताओं या संगीतकारों पर लागू होते थे, वे अब किसी भी स्मार्टफोन वाले व्यक्ति पर लागू होते हैं।
डीपफेक्स ने इन मुद्दों को नहीं बनाया – उन्होंने उन्हें उजागर किया और त्वरण किया। 2013 से मैं जो शोध कर रहा था, वह अचानक जरूरी हो गया। 2017 और 2018 के आसपास, न्यूरल नेटवर्क्स में विकास – विशेष रूप से एमआईटी और यूसी बर्कले जैसे स्थानों से – यह दिखाना शुरू कर दिया कि कैसे एक व्यक्ति के चेहरे, आवाज और शरीर को डिजिटल रूप से हेरफेर किया जा सकता है। एक साल के भीतर, यह क्षमता व्यापक रूप से जानी जाने लगी “डीपफेक्स” के रूप में, और यह पहली बार गहरे नुकसान के तरीकों से, विशेष रूप से महिलाओं और बच्चों को लक्षित करने वाली गैर-सहमति वाली यौन सामग्री के माध्यम से प्रसिद्ध हुई।
बाद में व्यावसायिक निहितार्थ उभरे, क्योंकि रचनात्मक उद्योग सिंथेटिक मीडिया को अपनाने लगे। यह तब था जब मैं जिन अनुबंध और आर्थिक प्रश्नों पर काम कर रहा था, वे आगे आए। लगभग रातोंरात, जो कानून का एक अधिक सैद्धांतिक या सिद्धांतकारी क्षेत्र माना जाता था, वह एक अत्यधिक व्यावहारिक, व्यावसायिक रूप से महत्वपूर्ण और सामाजिक रूप से जरूरी क्षेत्र बन गया।
मूल में, कानूनी चुनौती नहीं बदली है: लोग अपने आप के पहलुओं को साझा करना चाहते हैं, लेकिन अभी भी महत्वपूर्ण नियंत्रण बनाए रखना चाहते हैं। मौजूदा ढांचे उस सूक्ष्मता से संघर्ष करते हैं। वे व्यक्तियों को या तो पूरी तरह से निजी या पूरी तरह से सार्वजनिक के रूप में मानते हैं – या तो संरक्षित या न्याय के लिए खुला। लेकिन अधिकांश लोग बीच में कहीं हैं। यह तनाव अब न केवल पेशेवर प्रदर्शनकारियों के लिए केंद्रीय है, बल्कि डिजिटल जीवन में भाग लेने वाले किसी भी व्यक्ति के लिए है।
मैं इस स्थान में शोध और काम करने वाले के रूप में जाना जाने लगा, जिसने मुझे सरकारों के साथ काम करने के लिए प्रेरित किया जो लोगों को डीपफेक्स के खिलाफ सुरक्षा चाहते हैं, और कंपनियों के साथ जो डिजिटल क्लोनिंग उत्पादों को सुरक्षित रूप से उपयोग करने के लिए चाहते हैं, जैसे कि इलेवनलैब्स। रेप्लिक में, मैं जो कुछ भी सीखा है उसे लोगों और कंपनियों को लाता है जो डिजिटल क्लोनिंग या डिजिटल प्रतिकृति प्रौद्योगिकी का जिम्मेदारी से और सुरक्षित रूप से उपयोग करना चाहते हैं। मैंने मूल रूप से अपने ‘ब्लू स्काई’ शोध को एक सलाहकार व्यवसाय में बदल दिया है जो रचनात्मक उद्योगों को विशेषज्ञ कानूनी सलाह प्रदान करता है।
ओपनओरिजिन्स के हेड ऑफ लीगल के रूप में, एक कंपनी जो डीपफेक्स से लड़ने के लिए सामग्री प्रोवेनेंस का एक अमिट रिकॉर्ड स्थापित करने पर केंद्रित है, आप प्रोवेनेंस-आधारित प्रणालियों को पारंपरिक डीपफेक्स डिटेक्शन दृष्टिकोणों के साथ प्रतिस्पर्धा करने या बदलने के रूप में कैसे देखते हैं?
डीपफेक्स डिटेक्शन टूल्स की तुलना करना जल्दी से एक सेब और संतरे की तुलना करने का व्यायाम बन सकता है, क्योंकि उनकी प्रभावशीलता संदर्भ और उद्देश्य पर निर्भर करती है। नीति के दृष्टिकोण से, हमें पूरक उपकरणों की एक श्रृंखला की आवश्यकता है – कोई एक “सबसे अच्छा” समाधान नहीं है, और ओपन ओरिजिन्स व्यापक पारिस्थितिकी तंत्र का एक हिस्सा है। ओपन ओरिजिन्स की प्रौद्योगिकी डीपफेक्स डिटेक्शन समाधान के रूप में तब खड़ी होती है जब एक सामग्री निर्माता या सूचना संगठन को अपने भागीदारों, दर्शकों या सार्वजनिक के साथ साझा की जाने वाली सामग्री की प्रामाणिकता को साबित करने की आवश्यकता होती है।
सामग्री के निर्माण के बिंदु पर सत्यापित प्रोवेनेंस और “रसीदें” प्रदान करके, यह एक मजबूत रूप की रोकथाम प्रदान करता है जो यह दिखाता है कि सामग्री एक डीपफेक्स नहीं है। हालांकि, यह दृष्टिकोण उन दैनिक इंटरनेट उपयोगकर्ताओं के लिए कम उपयोगी है जो ऑनलाइन मिली सामग्री का जल्दी से मूल्यांकन करना चाहते हैं। उन मामलों में, पता लगाने पर सामग्री विश्लेषण विधियों पर निर्भर करता है, न कि प्रोवेनेंस-आधारित सत्यापन पर। हमें अलग-अलग आवश्यकताओं के लिए विभिन्न उपकरणों की आवश्यकता है, और हमें स्वीकार करना होगा कि डीपफेक्स के खिलाफ कोई चांदी की गोली नहीं है।
कानूनी दृष्टिकोण से, वर्तमान में एआई-जनित या एआई-रेप्लिकेटेड सामग्री में सहमति और स्वामित्व को कैसे संभालने में क्षेत्राधिकार की सबसे बड़ी खाई है?
ओह, आपके पास कितना समय है? उत्तर यह зависит करता है कि हम एआई-जनित या एआई-रेप्लिकेटेड सामग्री से क्या मतलब है। मुद्दे भिन्न होते हैं चाहे आप एआई-जनित छवि को एक घर या बिल्ली के रूप में देख रहे हों। या एक व्यक्ति के चेहरे, उनकी आवाज या उनके शरीर की डिजिटल पुनर्सृजना। आइए डीपफेक्स और डिजिटल प्रतिकृति के विषय पर ध्यान केंद्रित करें और आपके प्रश्न का उत्तर ‘डिजिटल क्लोनिंग’ के संदर्भ में दें।
सहमति पर, मुख्य मुद्दा यह है कि अधिकांश अनुबंध – चाहे वह रोजगार समझौते हों या प्लेटफ़ॉर्म की शर्तें – व्यापक, अस्पष्ट खंडों को शामिल करते हैं जो उपयोगकर्ता सामग्री पर व्यापक अधिकार प्रदान करते हैं। इन्हें ऐसे समझौते के रूप में व्याख्या किया जा सकता है जो क्लोनिंग जैसे उपयोगों के लिए “पीछे का दरवाजा” सहमति प्रदान करते हैं, भले ही अधिकांश लोग इस व्याख्या से असहमत होंगे। यह कानूनी व्याख्या और उपयोगकर्ता अपेक्षा के बीच एक महत्वपूर्ण अंतर बनाता है, जो वर्तमान में कंपनियों को लाभान्वित करता है जबकि नियमन पीछे रहता है।
स्वामित्व पर, डिजिटल क्लोन का मालिक कौन है, इसका कोई स्पष्ट कानूनी उत्तर नहीं है, क्योंकि मौजूदा ढांचे जैसे डेटा संरक्षण, कॉपीराइट और व्यक्तित्व अधिकार इस प्रौद्योगिकी के लिए नहीं बनाए गए थे। आज, अधिकांश लोगों को उनके नियोक्ता या ग्राहक के अनुरोध और वित्त पोषण पर काम पर स्कैन और क्लोन किया जाता है। और उन संस्थाओं को आमतौर पर इस संपत्ति पर एक उच्च डिग्री का नियंत्रण रखने की उम्मीद है, जो समझ में आता है लेकिन अक्सर समस्याग्रस्त है क्योंकि यह संपत्ति आपके चेहरे, आपकी आवाज या आपके शरीर की एक डिजिटल प्रतिकृति है, और यह आपको ऐसी चीजें कह सकती है जो आपने कभी नहीं कही हैं, या ऐसी चीजें कर सकती है जो आपने कभी नहीं की हैं।
यह प्रश्न कि ‘आपके क्लोन का मालिक कौन है?’ बहुत महत्वपूर्ण है, लेकिन आज कानून में इसका उत्तर नहीं है।
आपने वॉइस क्लोनिंग प्रौद्योगिकियों पर密तसे काम किया है। सिंथेटिक आवाजों के लिए कानूनी जोखिमों को सबसे अधिक गलत समझा जाता है, दोनों कंपनियों और व्यक्तियों के लिए?
कानूनी अनुपालन में सबसे गलत समझा जाने वाला मुद्दा एक कंपनी के व्यावसायिक हित और एक व्यक्ति के निजता और डिजिटल गरिमा के अधिकार के बीच संतुलन है। यह तनाव कई कानूनी शासनों (मुख्य रूप से बौद्धिक संपदा, डेटा संरक्षण और निजता) के साथ बैठता है जो एक साथ काम करने के लिए डिज़ाइन नहीं किए गए हैं और क्लोनिंग की व्याख्या मूल रूप से अलग तरीके से करते हैं। इसके परिणामस्वरूप, इसे व्यावहारिक, व्यवसाय-अनुकूल अभ्यास में अनुवाद करना जटिल और अक्सर अस्पष्ट है। कंपनियां या तो प्रमुख जोखिमों को नजरअंदाज कर देती हैं या उन्हें ठीक से नेविगेट करने के लिए महत्वपूर्ण लागत का सामना करती हैं। यह एक विकृत परिणाम बनाता है जहां जिम्मेदार अनुपालन मार्ग कठिन और अधिक महंगा हो जाता है, न कि डिफ़ॉल्ट।
एआई सिस्टम में, विशेष रूप से समानता, पहचान और प्रशिक्षण डेटा के साथ काम करते समय, कंपनियों को सहमति वास्तुकला के बारे में कैसे सोचना चाहिए?
कंपनियों को अपनी प्रणालियों में तीन मूल क्षमताओं को डिज़ाइन करना चाहिए। पहले, उन्हें ऑनबोर्डिंग पर सूचित, संदर्भ-आधारित सहमति सुरक्षित करनी चाहिए। दूसरा, उन्हें उपयोगकर्ताओं को अपनी सहमति वापस लेने और अपने डेटा को हटाने में सक्षम बनाना चाहिए, जो तकनीकी रूप से चुनौतीपूर्ण है और अक्सर अनदेखा किया जाता है, लेकिन अनुपालन के लिए आवश्यक है कानूनों जैसे यूके और यूरोपीय संघ के जीडीपीआर और संयुक्त राज्य अमेरिका में समान शासन। सहमति को बनाए रखने का अर्थ है ऐसी प्रणालियां बनाना जिनमें निकासी संचालन रूप से चिकनी और व्यवसाय मॉडल के साथ संरेखित हो।
सहमति विशिष्ट होनी चाहिए। और तीसरा, उपयोगकर्ताओं को व्यक्तिगत फ़ाइल स्तर पर अनुमतियों को प्रबंधित करने में सक्षम होना चाहिए, अपने समानता डेटा को अपडेट करना चाहिए, और समझना चाहिए कि यह कैसे उपयोग किया जा रहा है। इसके लिए पारदर्शिता और नियंत्रण की आवश्यकता है – जो उपयोगकर्ताओं को उनके डिजिटल क्लोन के तैनाती की निगरानी, समीक्षा और मॉडरेशन की अनुमति देने वाले उपकरण प्रदान करते हैं। यह लचीलापन अभी भी दुर्लभ है, लेकिन यह वह जगह है जहां प्रतिस्पर्धी लाभ बढ़ रहा है।
स्टार्टअप और सरकारों दोनों को सलाह देने के अपने अनुभव में, एआई का निर्माण कैसे किया जा रहा है और इसका नियमन कैसे किया जा रहा है, इसके बीच सबसे बड़ा डिस्कनेक्ट कहां है?
एआई का निर्माण और इसका नियमन करने के बीच डिस्कनेक्ट मूल रूप से अलग मिशनों के कारण है। सरकारें सार्वजनिक हित में नियमन करती हैं, जबकि एआई कंपनियां (अक्सर वेंचर-बैक्ड) मुख्य रूप से विकास, राजस्व और लाभ से चलित होती हैं। ये प्राथमिकताएं हमेशा संघर्ष नहीं करती हैं, लेकिन वे अक्सर विभिन्न दिशाओं में खींचती हैं, नियमन को एक प्रतिबंध के रूप में देखा जाता है, न कि एक समर्थन के रूप में।
यह एक संरचनात्मक तनाव बनाता है: नियामक और नवप्रवर्तनक अलग प्रोत्साहन, मूल्यों और यहां तक कि भाषाओं के साथ काम कर रहे हैं। यह संरेखण को व्यावहारिक रूप से कठिन बनाता है, भले ही यह असंभव न हो। हम एक नई लहर देख रहे हैं जो प्रौद्योगिकी कंपनियों को अधिक बारीकी से सार्वजनिक हित के लक्ष्यों के साथ संरेखित करती है, लेकिन वे अभी भी अपवाद हैं, नियम नहीं – विशेष रूप से उन लोगों में जो सफलतापूर्वक स्केल करते हैं।
ओपनओरिजिन्स सामग्री के निर्माण के बिंदु पर क्रिप्टोग्राफिक प्रोवेनेंस का उपयोग करके सामग्री को सत्यापित करता है। मूल-पहले दृष्टिकोण की तुलना में पोस्ट-वितरण सुरक्षा के साथ इसका कितना महत्व है?
यह मेरे ऊपर के उत्तर से जुड़ता है। सामग्री को निर्माण के समय प्रमाणित करना, ‘अपस्ट्रीम’ डाउनस्ट्रीम की तुलना में अधिक प्रभावी है, जहां वितरण या उपभोग के समय इसकी पुष्टि की जाती है। निर्माण के समय सामग्री को प्रमाणित करना खेत से लेकर आपकी प्लेट तक खाद्य पदार्थों को ट्रेस करने जैसा है। यदि आप जानते हैं कि चिकन कहां से आया है, यह कैसे संभाला गया है, और यह कैसे आपूर्ति श्रृंखला में चला गया है, तो आप जो खा रहे हैं उस पर भरोसा कर सकते हैं। यदि आप इसके बजाय केवल तैयार भोजन को देखकर सभी का अनुमान लगाने की कोशिश कर रहे हैं, तो आप अनुमान पर भरोसा कर रहे हैं। यह ऑनलाइन मानव-निर्मित और एआई-जनित सामग्री के बीच अंतर करने के लिए भी समान है: मूल से प्रोवेनेंस आपको सत्यापित आश्वासन देता है, जबकि डाउनस्ट्रीम पता लगाना अधिक अनिश्चित और प्रतिक्रियात्मक है।
मीडिया के भविष्य में स्टैंडर्ड जैसे सी2पीए की भूमिका क्या है, और क्या वे अकेले ऑनलाइन विश्वास को बहाल करने के लिए पर्याप्त हैं?
सी2पीए एक स्वागत योग्य पहल है, और कई मायनों में यह ओपनओरिजिन्स के समान आंदोलन का हिस्सा है जो सामग्री प्रामाणिकता के लिए है। वे सामग्री सुरक्षा और सामग्री प्रामाणिकता पारिस्थितिकी तंत्र का एक महत्वपूर्ण हिस्सा हैं। जैसा कि हर साइबर सुरक्षा उपकरण के साथ, कोई एक चांदी की गोली नहीं है।
फिल्म, संगीत और गेमिंग जैसे उद्योगों में रचनाकारों और प्रतिभाओं के लिए, वे आज से अनधिकृत डिजिटल प्रतिकृति से खुद को बचाने के लिए क्या व्यावहारिक कदम उठा सकते हैं?
कलाकारों को आज दो अलग-अलग जोखिमों का सामना करना पड़ता है: उनके काम की प्रतिकृति (जैसे संगीत, छवियों या लेखन) और उनकी समानता की प्रतिकृति, जिसमें उनका चेहरा, आवाज और शरीर शामिल है। एआई प्रणाली अब कम से कम इनपुट के साथ दोनों को उच्च स्तर की विश्वसनीयता के साथ पुन: उत्पन्न कर सकती है। व्यावहारिक रूप से, सुरक्षा ऑनलाइन साझा की जाने वाली सामग्री के बारे में जागरूक होने से शुरू होती है, यह पहचान करते हुए कि कोई भी सामग्री पोस्ट की जा सकती है और अक्सर प्रशिक्षण डेटासेट में स्क्रैप की जा सकती है, अक्सर बिना स्पष्ट सहमति या दृश्यता के।
यह जोखिम अब ऑनलाइन संचालित करने का एक मूलभूत है। लेकिन तुरंत और नियंत्रित जोखिम अक्सर अनुबंधों में निहित होता है। कलाकारों के साथ उनके सहयोगियों, वितरकों या प्लेटफ़ॉर्म के साथ किए गए समझौते ऐसे खंडों को शामिल कर सकते हैं जो प्रशिक्षण उद्देश्यों के लिए एआई के उपयोग, पुन: उपयोग या पुनर्विक्रय की अनुमति देते हैं – अक्सर नीचे की राजस्व में महत्वपूर्ण भागीदारी के बिना।
कलाकारों के लिए, यह अनुबंध स्क्रूटनी को महत्वपूर्ण बनाता है। यह समझना कि उनका काम और समानता का उपयोग, लाइसेंसिंग या पुन: उपयोग कैसे किया जा सकता है, अब रचनात्मक प्रक्रिया के रूप में महत्वपूर्ण है। वर्तमान में बहस (संघों, उद्योग निकायों और प्लेटफ़ॉर्म के माध्यम से) इस असंतुलन को ठीक करने और सुनिश्चित करने पर केंद्रित है कि रचनाकारों को नियंत्रण और उचित मुआवजा दोनों बनाए रखें।
तो दो मुख्य टुकड़े सलाह: ऑनलाइन साझा की जाने वाली सामग्री के बारे में सावधान रहें, और अपने अनुबंधों को पढ़ें और एआई खंडों की तलाश करें इससे पहले कि आप उन पर हस्ताक्षर करें।
आगे देखते हुए तीन से पांच साल, क्या आप मानते हैं कि हम उस बिंदु तक पहुंचेंगे जहां प्रत्येक टुकड़ा डिजिटल सामग्री को सत्यापित प्रोवेनेंस ले जाना होगा, या क्या विश्वास प्लेटफ़ॉर्म और क्षेत्राधिकार के पार खंडित रहेगा?
मैं यह कहना चाहूंगा कि हां, लेकिन वास्तव में नहीं – पांच साल के भीतर नहीं। प्रौद्योगिकी में, पांच साल लंबा लगता है; उपयोगकर्ता व्यवहार और आदतों में बदलाव लाने के लिए, यह बहुत कम है। अधिकांश उपभोक्ता अपने निर्णय प्रोवेनेंस की उपस्थिति पर आधारित नहीं रखते हैं। प्लेटफ़ॉर्म उपयोगकर्ता मांग का पालन करते हैं, जो अक्सर प्रोवेनेंस की तुलना में जुड़ाव को अनुकूलित करता है।
यह तब बदल सकता है अगर नियमन हस्तक्षेप करता है। हम पहले से ही कैलिफोर्निया जैसे स्थानों में प्रारंभिक कदम देख रहे हैं, जहां लेबलिंग और मॉडरेशन आवश्यकताएं उभर रही हैं, लेकिन इसे वैश्विक स्तर पर स्केल करना समय लेगा – शायद एक दशक के करीब नहीं तो पांच साल।
परिवर्तन का एक और क्षेत्र क्षेत्र-विशिष्ट है: पत्रकारिता, वित्त, बीमा और स्वास्थ्य सेवा जैसे उद्योग प्रोवेनेंस और प्रमाणीकरण की आवश्यकता शुरू कर सकते हैं क्योंकि विश्वास उनके संचालन के लिए मूलभूत है।
अंत में, उपभोक्ता अल्पावधि में प्रोवेनेंस जानकारी की परवाह नहीं कर सकते हैं, लेकिन वे सामग्री की गुणवत्ता और जानकारी की गुणवत्ता की परवाह करेंगे। यदि एआई-जनित सामग्री बहुत होमोजेनस या “सुस्त” हो जाती है, तो दर्शक मानव-निर्मित सामग्री को अधिक स्पष्ट रूप से मूल्य देने लग सकते हैं। इससे बाजार का खंडन हो सकता है, जहां कुछ प्लेटफ़ॉर्म पैमाने और एआई-जनित सामग्री को प्राथमिकता देते हैं, और अन्य प्रामाणिकता, प्रोवेनेंस और उच्च-विश्वास, मानव-नेतृत्व वाले सामग्री के लिए क्यूरेट करते हैं – लेकिन यह बदलाव अभी भी अज्ञात है।
आपके महान उत्तरों के लिए धन्यवाद, पाठक जो अधिक जानना चाहते हैं उन्हें ओपनओरिजिन्स पर जाना चाहिए।












