Connect with us

рдЧрд╣рд░реЗ рдирдХрд▓реА рдХреА рдЕрд╕реНрдкрд╖реНрдЯ рдкрд░рд┐рднрд╛рд╖рд╛

рдХреГрддреНрд░рд┐рдо рдмреБрджреНрдзрд┐рдорддреНрддрд╛

рдЧрд╣рд░реЗ рдирдХрд▓реА рдХреА рдЕрд╕реНрдкрд╖реНрдЯ рдкрд░рд┐рднрд╛рд╖рд╛

mm
Based on: https://unsplash.com/photos/man-sitting-on-chair-E9PFbdhZmus

एक प्रेरक नया अध्ययन जर्मनी से यूरोपीय संघ के एआई अधिनियम की ‘डीपफेक’ शब्द की परिभाषा की आलोचना करता है, जिसे विशेष रूप से डिजिटल छवि मैनिपुलेशन के संदर्भ में अत्यधिक अस्पष्ट माना जाता है। लेखकों का तर्क है कि अधिनियम का वास्तविक लोगों या घटनाओं की तरह दिखने वाली सामग्री पर जोर – फिर भी संभावित रूप से नकली दिखाई दे सकता है – अस्पष्टता की कमी है।

वे यह भी रेखांकित करते हैं कि अधिनियम के ‘मानक संपादन’ (अर्थात कथित रूप से छवियों में न्यूनतम एआई-सहायता प्राप्त संशोधन) के अपवाद डिजिटल छवि मैनिपुलेशन में एआई के व्यापक प्रभाव और कलात्मक सम्मेलनों की व्यक्तिपरक प्रकृति को ध्यान में नहीं रखते हैं जो एआई के आगमन से पहले ही मौजूद थे।

इन मुद्दों पर अस्पष्ट कानूनी नियमन दो प्रमुख जोखिमों को जन्म देता है: एक ‘चिलिंग इफेक्ट’, जहां कानून का व्यापक व्याख्यात्मक दायरा नवाचार और नए सिस्टम को अपनाने को दबा देता है; और एक ‘स्कोफ्लॉ इफेक्ट’, जहां कानून को अत्यधिक या अप्रासंगिक माना जाता है।

दोनों मामलों में, अस्पष्ट कानून व्यावहारिक कानूनी परिभाषाओं को स्थापित करने की जिम्मेदारी भविष्य के न्यायिक निर्णयों पर छोड़ देते हैं – एक सावधान और जोखिम-विरोधी विधायी दृष्टिकोण।

एआई-आधारित छवि मैनिपुलेशन प्रौद्योगिकियां कानून की क्षमता से आगे निकलती हैं जो उन्हें संबोधित करती हैं, ऐसा लगता है। उदाहरण के लिए, एआई-चालित ‘स्वचालित’ पोस्ट-प्रोसेसिंग की अवधारणा के लचीलेपन का एक उल्लेखनीय उदाहरण यह है कि हाल के सैमसंग कैमरों में ‘सीन ऑप्टिमाइज़र’ फ़ंक्शन, जो उपयोगकर्ता-ली गई छवियों को चंद्रमा (एक चुनौतीपूर्ण विषय) के साथ बदल सकता है, एक एआई-चालित, ‘परिष्कृत’ छवि के साथ:

[कैप्शन id=”attachment_210152″ align=”alignnone” width=”639″]<img class="wp-image-210152" src="https://www.unite.ai/wp-content/uploads/2024/12/samsung-moon-photo.jpg" alt="शीर्ष बायें, एक वास्तविक उपयोगकर्ता-ली गई छवि का एक उदाहरण चंद्रमा का, सैमसंग-एहंस्ड संस्करण के बगल में स्वचालित रूप से दृश्य अनुकूलक के साथ बनाया गया; दायें, सैमसंग का इस प्रक्रिया का आधिकारिक चित्रण; निचले बायें, रेडिट उपयोगकर्ता u/ibreakphotos के उदाहरण, (बायें) एक जानबूझकर धुंधली छवि चंद्रमा के और (दायें), सैमसंग का इस छवि का पुनः कल्पना – भले ही स्रोत फोटो चंद्रमा की नहीं थी, और एक मॉनिटर की तस्वीर थी। स्रोत (घड़ी की दिशा से शीर्ष-बायें): https://arxiv.org/pdf/2412.09961; https://www.samsung.com/uk/support/mobile-devices/how-galaxy-cameras-combine-super-resolution-technologies-with-ai-to-produce-high-quality-images-of-the-moon/; https:/reddit.com/r/Android/comments/11nzrb0/samsung_space_zoom_moon_shots_are_fake_and_here/[/कैप्शन]

नीचे की छवि में, हम चंद्रमा की दो छवियों को देखते हैं। बायीं ओर की छवि एक फोटो है जो एक रेडिट उपयोगकर्ता द्वारा ली गई है। यहाँ, छवि को उपयोगकर्ता द्वारा जानबूझकर धुंधली और डाउनस्केल की गई है।

इसके दायीं ओर हम एक फोटो देखते हैं जो उसी डिग्रेडेड छवि को एक सैमसंग कैमरे में एआई-चालित पोस्ट-प्रोसेसिंग के साथ लिया गया है। कैमरा स्वचालित रूप से 'अपग्रेड' की गई 'मून' वस्तु को मान्यता देता है, भले ही यह वास्तविक चंद्रमा न हो।

कागज़ गूगल के हाल के स्मार्टफ़ोन में शामिल 'बेस्ट टेक' फीचर पर गहरी आलोचना करता है – एक विवादास्पद एआई सुविधा जो एक समूह फोटो के 'सर्वश्रेष्ठ' भागों को संपादित करती है, एक फोटोग्राफ़ अनुक्रम की कई सेकंड को स्कैन करती है ताकि मुस्कान को आगे या पीछे की ओर समय के रूप में आवश्यकतानुसार स्कैन किया जा सके – और कोई भी मध्य में पलक झपकते हुए नहीं दिखाई देता है।

कागज़ यह तर्क देता है कि इस प्रकार की संयुक्त प्रक्रिया में घटनाओं को गलत तरीके से प्रस्तुत करने की क्षमता है:

‘[एक] एक टिपिकल समूह फोटो सेटिंग में, एक औसत दर्शक शायद अभी भी परिणामी फोटो को प्रामाणिक मानेगा। मुस्कान जो डाली गई है वह कुछ सेकंड के भीतर शेष फोटो लेने से मौजूद है।

‘दूसरी ओर, बेस्ट टेक फीचर का दस सेकंड का समय फ्रेम एक मूड परिवर्तन के लिए पर्याप्त है। एक व्यक्ति हो सकता है जो हंसते हुए रुक गया हो जबकि समूह एक चुटकुले पर हंसता है जो उनके खिलाफ है।

‘परिणामस्वरूप, हम मानते हैं कि ऐसा समूह फोटो अच्छी तरह से एक गहरा नकली हो सकता है।’

नया कागज़ क्या एक गहरा नकली बनाता है? यूरोपीय संघ के एआई अधिनियम के तहत वैध प्रोसेसिंग और मैनिपुलेशन के बीच धुंधली रेखा शीर्षक से है, और ट्यूबिंगन विश्वविद्यालय और सारलैंड विश्वविद्यालय में गणनात्मक कानून प्रयोगशाला के दो शोधकर्ताओं से आता है।

पुराने तरीके

फोटोग्राफी में समय को मैनिपुलेट करना उपभोक्ता-स्तर के एआई से बहुत पुराना है। नए कागज़ के लेखकों का तर्क है कि बहुत पुरानी तकनीकें मौजूद हैं जिन्हें ‘अस्वाभाविक’ के रूप में तर्क दिया जा सकता है, जैसे कि एक हाई डायनामिक रेंज (एचडीआर) फोटो में कई अनुक्रमिक छवियों का संयोजन, या एक ‘सिले हुए’ पैनोरमिक फोटो।

वास्तव में, कुछ पुराने और सबसे मजेदार फोटोग्राफिक नकली पारंपरिक रूप से स्कूली बच्चों द्वारा बनाई गई थीं जो स्कूल समूह फोटोग्राफी के लिए उपयोग की जाने वाली विशेष पैनोरमिक कैमरों के ट्रैक के सामने दौड़कर बनाई जाती थीं – जिससे छात्र एक ही छवि में दो बार दिखाई दे सकते थे:

[कैप्शन id=”attachment_210153″ align=”alignnone” width=”623″]рдкреИрдиреЛрд░рдорд┐рдХ рдХреИрдорд░реЛрдВ рдХреЛ рдзреЛрдЦрд╛ рджреЗрдиреЗ рдХрд╛ рдкреНрд░рд▓реЛрднрди рд╕реНрдХреВрд▓ рд╕рдореВрд╣ рдлреЛрдЯреЛрдЧреНрд░рд╛рдлреА рдХреЗ рджреМрд░рд╛рди рдХрдИ рдЫрд╛рддреНрд░реЛрдВ рдХреЗ рд▓рд┐рдП рдмрд╣реБрдд рдЕрдзрд┐рдХ рдерд╛, рдЬреЛ рд╕реНрдХреВрд▓ рдлреЛрдЯреЛрдЧреНрд░рд╛рдл рдореЗрдВ 'рдХреНрд▓реЛрди' рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рддреИрдпрд╛рд░ рдереЗред рд╕реНрд░реЛрдд: https://petapixel.com/2012/12/13/double-exposure-a-clever-photo-prank-from-half-a-century-ago/ पैनोरमिक कैमरों को धोखा देने का प्रलोभन स्कूल समूह फोटोग्राफी के दौरान कई छात्रों के लिए बहुत अधिक था, जो स्कूल फोटोग्राफ में ‘क्लोन’ करने के लिए तैयार थे। स्रोत: https://petapixel.com/2012/12/13/double-exposure-a-clever-photo-prank-from-half-a-century-ago/[/कैप्शन]

जब तक आप रॉ मोड में फोटो नहीं लेते हैं, जो मूल रूप से कैमरा लेंस सेंसर को एक बहुत बड़े फ़ाइल में डंप करता है बिना किसी प्रकार की व्याख्या के, यह संभावना है कि आपकी डिजिटल फोटोग्राफ पूरी तरह से प्रामाणिक नहीं हैं। कैमरा सिस्टम नियमित रूप से ‘सुधार’ एल्गोरिदम जैसे कि छवि तेज़ करना और व्हाइट बैलेंस लागू करते हैं, जो डिफ़ॉल्ट रूप से होता है – और उन्होंने ऐसा उपभोक्ता-स्तर की डिजिटल फोटोग्राफी की उत्पत्ति से किया है।

कागज़ के लेखकों का तर्क है कि यहां तक कि इन पुराने प्रकार के डिजिटल फोटो ऑगमेंटेशन वास्तविकता का प्रतिनिधित्व नहीं करते हैं, क्योंकि ऐसे तरीके फोटोग्राफ को अधिक आकर्षक बनाने के लिए डिज़ाइन किए गए हैं, न कि अधिक ‘वास्तविक’।

अध्ययन सुझाव देता है कि यूरोपीय संघ के एआई अधिनियम, बाद के संशोधनों जैसे रिकाइटल 123-27 के साथ, फोटोग्राफ के उत्पादन के संदर्भ में एक साक्ष्य ढांचे में सभी फोटोग्राफिक आउटपुट को रखता है, जो सुरक्षा कैमरा फुटेज या फोरेंसिक फोटोग्राफी की (नाममात्र वस्तुनिष्ठ) प्रकृति के विपरीत है। अधिनियम द्वारा संबोधित अधिकांश छवियां अधिक संभावना है कि वे संदर्भों में उत्पन्न होती हैं जहां निर्माता और ऑनलाइन प्लेटफ़ॉर्म सक्रिय रूप से रचनात्मक फोटो व्याख्या को बढ़ावा देते हैं, जिसमें एआई का उपयोग भी शामिल है।

शोधकर्ताओं का सुझाव है कि फोटोग्राफ़ वास्तविकता का एक वस्तुनिष्ठ चित्रण कभी नहीं रहे हैं। कैमरे के स्थान, चुने गए गहराई के क्षेत्र, और प्रकाश विकल्प जैसे विचार सभी एक फोटोग्राफ़ को गहराई से व्यक्तिपरक बनाने में योगदान करते हैं।

कागज़ यह देखता है कि नियमित ‘क्लीन-अप’ कार्य – जैसे कि सेंसर धूल या एक अच्छी तरह से बनाई गई दृश्य से अवांछित पावर लाइनों को हटाना – एआई के उदय से पहले केवल अर्ध-स्वचालित थे: उपयोगकर्ताओं को अपने वांछित परिणाम प्राप्त करने के लिए एक क्षेत्र का चयन करना या एक प्रक्रिया को आरंभ करना पड़ता था।

आज, ये संचालन अक्सर उपयोगकर्ता के पाठ प्रॉम्प्ट द्वारा ट्रिगर किए जाते हैं, सबसे उल्लेखनीय रूप से फोटोशॉप जैसे टूल में। उपभोक्ता स्तर पर, ऐसी सुविधाएं अब उपयोगकर्ता के इनपुट के बिना स्वचालित रूप से होती हैं – एक परिणाम जिसे निर्माताओं और प्लेटफ़ॉर्म द्वारा ‘स्पष्ट रूप से वांछनीय’ माना जाता है।

गहरे नकली की पतली अर्थ

एआई-परिवर्तित और एआई-उत्पन्न छवियों के नियमन के लिए एक केंद्रीय चुनौती ‘गहरा नकली’ शब्द की अस्पष्टता है, जिसका अर्थ पिछले दो वर्षों में उल्लेखनीय रूप से विस्तारित किया गया है।

मूल रूप से, शब्द केवल ऑटोएन्कोडर-आधारित सिस्टम जैसे डीपफेसलैब और फेसस्वैप से वीडियो आउटपुट पर लागू होता था, जो 2017 के अंत में रेडिट पर अनाम कोड पोस्ट किया गया था।

2022 से, लेटेंट डिफ्यूजन मॉडल (एलडीएम) जैसे स्टेबल डिफ्यूजन और फ्लक्स के आगमन के साथ-साथ पाठ-से-वीडियो सिस्टम जैसे सोरा के साथ, पहचान-विनिमय और अनुकूलन की अनुमति देने में सक्षम थे, साथ ही साथ सुधारित रिज़ॉल्यूशन, बहुमुखी प्रतिभा और विश्वसनीयता में। अब यह संभव था कि हस्तियों और राजनेताओं को चित्रित करने वाले डिफ्यूजन-आधारित मॉडल बनाए जा सकते हैं। चूंकि ‘गहरा नकली’ शब्द पहले से ही एक हेडलाइन-गार्नरिंग खजाना था मीडिया निर्माताओं के लिए, यह इन प्रणालियों को कवर करने के लिए विस्तारित किया गया था।

बाद में, मीडिया और शोध साहित्य में, शब्द में पाठ-आधारित व्यक्ति की नकल भी शामिल थी। इस बिंदु पर, ‘गहरा नकली’ का मूल अर्थ लगभग खो गया था, जबकि इसका विस्तारित अर्थ लगातार विकसित हो रहा था और बढ़ती जा रहा था।

लेकिन चूंकि शब्द इतना उत्तेजक और शक्तिशाली था, और अब एक शक्तिशाली राजनीतिक और मीडिया टचस्टोन था, यह छोड़ना असंभव साबित हुआ। यह पाठकों को वेबसाइटों पर आकर्षित करता था, शोधकर्ताओं को धन मिलता था, और राजनेताओं को ध्यान मिलता था। यह लेक्सिकल अस्पष्टता नई अनुसंधान का मुख्य फोकस है।

जैसा कि लेखकों का तर्क है, यूरोपीय संघ के एआई अधिनियम के अनुच्छेद 3(60) में चार शर्तें हैं जो एक ‘गहरा नकली’ को परिभाषित करती हैं।

1: सच्चा चंद्रमा

पहले, सामग्री उत्पन्न या मैनिपुलेट की जानी चाहिए, अर्थात या तो एआई का उपयोग करके स्क्रैच से बनाई जाती है (उत्पादन) या मौजूदा डेटा (मैनिपुलेशन) से संशोधित की जाती है। कागज़ इस बात पर जोर देता है कि ‘स्वीकार्य’ छवि संपादन परिणामों और मैनिपुलेटिव गहरे नकली के बीच अंतर करने में कठिनाई है, यह देखते हुए कि डिजिटल फोटोग्राफ वैसे भी वास्तविकता का सच्चा प्रतिनिधित्व नहीं हैं।

कागज़ यह तर्क देता है कि एक सैमसंग-उत्पन्न चंद्रमा तर्कसंगत रूप से प्रामाणिक है, क्योंकि चंद्रमा असंभवत: बदलता है, और क्योंकि एआई-उत्पन्न सामग्री, वास्तविक चंद्र छवियों पर प्रशिक्षित, संभवतः सटीक होगी।

हालांकि, लेखकों का यह भी कहना है कि चूंकि सैमसंग सिस्टम को एक ‘सुधारित’ छवि उत्पन्न करने के लिए दिखाया गया है जिसमें स्रोत छवि वास्तव में चंद्रमा नहीं थी, यह एक ‘गहरा नकली’ माना जाएगा।

यह व्यावहारिक होगा कि इस तरह के अद हॉक कार्यक्षमता के आसपास भिन्न उपयोग के मामलों की एक व्यापक सूची तैयार की जाए। इसलिए, परिभाषा का बोझ फिर से न्यायालय के फैसलों पर लगता है।

2: टेक्स्टफेक्स

दूसरा, सामग्री छवि, ऑडियो या वीडियो के रूप में होनी चाहिए। पाठ सामग्री, जबकि अन्य पारदर्शिता दायित्वों के अधीन, यूरोपीय संघ के एआई अधिनियम के तहत एक गहरा नकली नहीं माना जाता है। यह नए अध्ययन में विस्तार से नहीं किया गया है, हालांकि यह दृश्य गहरे नकली की प्रभावशीलता पर एक उल्लेखनीय प्रभाव डाल सकता है (नीचे देखें)।

3: वास्तविक दुनिया की समस्याएं

तीसरा, सामग्री मौजूदा व्यक्तियों, वस्तुओं, स्थानों, संस्थाओं या घटनाओं की तरह दिखनी चाहिए। यह शर्त वास्तविक दुनिया से एक संबंध स्थापित करती है, जिसका अर्थ है कि केवल कल्पनाशील छवियां, भले ही वे फोटोरियलिस्टिक हों, गहरे नकली के रूप में योग्य नहीं होंगी। रिकाइटल 134 यूरोपीय संघ के एआई अधिनियम में ‘समानता’ पहलू पर जोर देते हुए ‘काफी’ शब्द जोड़कर इस शर्त को रेखांकित करता है।

लेखक, पूर्व कार्य का हवाला देते हुए, यह तर्क देते हैं कि क्या एक एआई-उत्पन्न चेहरे को एक वास्तविक व्यक्ति से संबंधित होना चाहिए, या क्या यह केवल एक वास्तविक व्यक्ति के पर्याप्त समान होना चाहिए, इस परिभाषा को संतुष्ट करने के लिए।

उदाहरण के लिए, कैसे निर्धारित किया जा सकता है कि डोनाल्ड ट्रम्प जैसे राजनेता को चित्रित करने वाली फोटोरियलिस्टिक छवियों की एक श्रृंखला वास्तव में उनका प्रतिनिधित्व करने का इरादा है, यदि छवियों (या संलग्न पाठ) में उन्हें विशेष रूप से उल्लेख नहीं किया गया है? चेहरे की पहचान? उपयोगकर्ता सर्वेक्षण? एक न्यायाधीश की ‘सामान्य ज्ञान’ की परिभाषा?

टेक्स्टफेक्स (ऊपर देखें) के मुद्दे पर लौटते हुए, शब्द अक्सर दृश्य गहरे नकली के कार्य में एक महत्वपूर्ण भूमिका निभाते हैं। उदाहरण के लिए, यह संभव है कि ‘व्यक्ति ए‘ की एक (अपरिवर्तित) छवि या वीडियो लें और ‘व्यक्ति बी‘ के रूप में इसका वर्णन करने वाला एक उपशीर्षक या सोशल मीडिया पोस्ट जोड़ें, (यह मानते हुए कि दोनों व्यक्ति एक समानता साझा करते हैं)।

इस मामले में, कोई एआई की आवश्यकता नहीं है, और परिणाम आश्चर्यजनक रूप से प्रभावी हो सकता है – लेकिन क्या ऐसा कम-तकनीक वाला दृष्टिकोण भी एक ‘गहरा नकली’ है?

4: रीटच, रीमॉडल

अंत में, सामग्री एक व्यक्ति के लिए प्रामाणिक या सच्ची दिखाई देनी चाहिए। यह शर्त मानव दर्शकों की धारणा पर जोर देती है। सामग्री जो केवल एक एल्गोरिदम द्वारा वास्तविक व्यक्ति या वस्तु का प्रतिनिधित्व करने के लिए मान्यता प्राप्त है, नहीं एक गहरा नकली माना जाएगा।

इनमें से सभी शर्तों में, यह सबसे अधिक स्पष्ट रूप से बाद के न्यायिक निर्णय के लिए परिभाषा को सौंप देता है, क्योंकि यह किसी भी तकनीकी या यांत्रिक साधनों के माध्यम से व्याख्या की अनुमति नहीं देता है।

स्पष्ट रूप से इस विषयवस्तु पर सहमति तक पहुंचने में कुछ अंतर्निहित कठिनाइयां हैं। लेखकों का तर्क है कि विभिन्न लोग, और विभिन्न प्रकार के लोग (जैसे बच्चे और वयस्क), विभिन्न रूप से एक विशेष गहरे नकली में विश्वास करने की संभावना रखते हैं।

लेखकों ने आगे कहा कि फोटोशॉप जैसे टूल की उन्नत एआई क्षमताएं पारंपरिक ‘गहरा नकली’ की परिभाषा को चुनौती देती हैं। जबकि इन प्रणालियों में मूल रूप से विवादास्पद या निषिद्ध सामग्री के खिलाफ मूलभूत सुरक्षा उपाय शामिल हो सकते हैं, वे ‘रीटचिंग’ की अवधारणा को नाटकीय रूप से विस्तारित करते हैं। उपयोगकर्ता अब एक उच्च स्तर की पेशेवर प्रामाणिकता के साथ वस्तुओं को जोड़ या हटा सकते हैं, जो छवि मैनिपुलेशन की सीमाओं को पुनः परिभाषित करता है।

लेखकों का कहना है:

‘हम तर्क देते हैं कि एआई अधिनियम और संबंधित दायित्वों में गहरे नकली की वर्तमान परिभाषा गहरे नकली द्वारा प्रस्तुत चुनौतियों से निपटने के लिए पर्याप्त रूप से निर्दिष्ट नहीं है। डिजिटल फोटो के जीवन चक्र का विश्लेषण करके, हम पाते हैं कि:

‘(1.) गहरे नकली यूरोपीय संघ के एआई अधिनियम में अस्पष्ट रूप से परिभाषित किए गए हैं। परिभाषा में एक गहरा नकली के लिए बहुत अधिक स्कोप छोड़ देती है।

‘(2.) यह स्पष्ट नहीं है कि गूगल के ‘बेस्ट टेक’ फीचर जैसे संपादन कार्य पारदर्शिता दायित्वों से अपवाद के रूप में कैसे माना जा सकता है।

‘(3.) सामग्री के लिए अपवाद में यह सवाल उठता है कि क्या सामग्री को काफी हद तक संपादित किया जाना चाहिए और क्या यह संपादन मानव द्वारा दिखाई देना चाहिए।’

अपवाद लेना

यूरोपीय संघ के एआई अधिनियम में अपवाद हैं जिन्हें लेखकों का तर्क है कि बहुत अधिक अनुमति देने वाले हो सकते हैं। अनुच्छेद 50(2), वे कहते हैं, मूल स्रोत छवि के अधिकांश को बदले जाने के मामलों में एक अपवाद प्रदान करता है। लेखकों का तर्क है:

‘अनुच्छेद 50(2) के अर्थ में सामग्री क्या हो सकती है? उदाहरण के लिए, छवियों के मामले में, क्या हमें पिक्सेल-स्पेस या मानव द्वारा दिखाई देने वाली दृश्य स्थान पर विचार करना चाहिए? पिक्सेल स्पेस में व्यावहारिक मैनिपुलेशन मानव धारणा को प्रभावित नहीं कर सकता है, और दूसरी ओर, पिक्सेल स्पेस में छोटे विकार मानव धारणा को नाटकीय रूप से बदल सकते हैं। ‘

शोधकर्ता एक हाथगन को एक व्यक्ति की फोटो में जोड़ने का उदाहरण देते हैं जो किसी की ओर इशारा कर रहा है। हाथगन जोड़कर, आप छवि के केवल 5% को बदल रहे हैं; हालांकि, परिवर्तित हिस्से का सेमेंटिक महत्व उल्लेखनीय है। इसलिए, यह अपवाद सामान्य ज्ञान की किसी भी समझ को ध्यान में नहीं रखता है कि एक छोटी सी विस्ता एक छवि के समग्र महत्व को कैसे प्रभावित कर सकती है।

अनुच्छेद 50(2) में ‘मानक संपादन’ के लिए एक ‘सहायक कार्य’ के लिए भी अपवाद है। चूंकि अधिनियम ‘मानक संपादन’ को परिभाषित नहीं करता है, यहां तक कि गूगल के बेस्ट टेक जैसी पोस्ट-प्रोसेसिंग सुविधाएं भी इस अपवाद द्वारा संरक्षित प्रतीत होती हैं, लेखकों का तर्क है।

निष्कर्ष

नए कार्य का उल्लिखित उद्देश्य गहरे नकली के नियमन के आसपास अंतरानुशासनिक अध्ययन को प्रोत्साहित करना है, और कंप्यूटर वैज्ञानिकों और कानूनी विद्वानों के बीच नए संवादों के लिए एक प्रारंभिक बिंदु के रूप में कार्य करना है।

हालांकि, कागज़ खुद को कई बिंदुओं पर तautology में गिरता है: यह अक्सर ‘गहरा नकली’ शब्द का उपयोग करता है जैसे कि इसका अर्थ स्वयं-स्पष्ट है, जबकि यूरोपीय संघ के एआई अधिनियम पर हमला करते हुए जो वास्तव में एक गहरा नकली की परिभाषा करने में विफल रहता है।

 

सोमवार, 16 दिसंबर, 2024 को पहली बार प्रकाशित

рдорд╢реАрди рд▓рд░реНрдирд┐рдВрдЧ рдкрд░ рд▓реЗрдЦрдХ, рдорд╛рдирд╡ рдЗрдореЗрдЬ рд╕рд┐рдВрдереЗрд╕рд┐рд╕ рдореЗрдВ рдбреЛрдореЗрди рд╡рд┐рд╢реЗрд╖рдЬреНрдЮред рдореЗрдЯрд╛рдлрд┐рдЬрд┐рдХ.рдПрдЖрдИ рдореЗрдВ рдЕрдиреБрд╕рдВрдзрд╛рди рд╕рд╛рдордЧреНрд░реА рдХреЗ рдкреВрд░реНрд╡ рдкреНрд░рдореБрдЦред
рд╡реНрдпрдХреНрддрд┐рдЧрдд рд╕рд╛рдЗрдЯ: martinanderson.ai
рд╕рдВрдкрд░реНрдХ: [email protected]
рдЯреНрд╡рд┐рдЯрд░: @manders_ai