ठूंठ फैक्ट-चेकर की तरह डीपफेक वीडियो की पहचान कैसे करें - Unite.AI
हमसे जुडे

Artificial Intelligence

फैक्ट-चेकर की तरह डीपफेक वीडियो की पहचान कैसे करें

mm

प्रकाशित

 on

डीपफेक सिंथेटिक मीडिया है जहां कोई व्यक्ति किसी व्यक्ति की शक्ल को किसी और से बदल देता है। वे ऑनलाइन आम होते जा रहे हैं, अक्सर दुनिया भर में गलत सूचनाएँ फैलाते रहते हैं। जबकि कुछ हानिरहित लग सकते हैं, अन्य में दुर्भावनापूर्ण इरादे हो सकते हैं, जिससे व्यक्तियों के लिए डिजिटल रूप से तैयार की गई झूठी सामग्री से सच्चाई को समझना महत्वपूर्ण हो जाता है।

दुर्भाग्य से, हर कोई डीपफेक वीडियो की पहचान करने के लिए अत्याधुनिक सॉफ्टवेयर तक नहीं पहुंच सकता है। यहाँ'आइए देखें कि तथ्य-जांचकर्ता किसी वीडियो की वैधता निर्धारित करने के लिए उसकी जांच कैसे करते हैं और आप उनकी रणनीतियों का उपयोग अपने लिए कैसे कर सकते हैं।

1. संदर्भ की जांच करें

जिस संदर्भ में वीडियो प्रस्तुत किया गया है उसकी जांच करना महत्वपूर्ण है। इसका मतलब यह है कि पृष्ठभूमि की कहानी, सेटिंग और क्या वीडियो की घटनाएं आपके द्वारा बताई गई सच्चाई से मेल खाती हैं। डीपफेक अक्सर यहां फिसल जाते हैं, ऐसी सामग्री प्रस्तुत करते हैं जो बारीकी से निरीक्षण करने पर वास्तविक दुनिया के तथ्यों या समयसीमा के विपरीत नहीं होती है।

एक उदाहरण में यूक्रेनी राष्ट्रपति वलोडिमिर ज़ेलेंस्की का डीपफेक शामिल है। मार्च 2022 में, सोशल मीडिया पर एक डीपफेक वीडियो सामने आया है जहां ज़ेलेंस्की यूक्रेनी सैनिकों से अपने हथियार डालने और रूसी सेना के सामने आत्मसमर्पण करने का आग्रह करते दिखाई दिए। 

करीब से जांच करने पर, कई प्रासंगिक सुरागों ने वीडियो की अप्रामाणिकता को उजागर किया। यूक्रेनी सरकार के आधिकारिक चैनलों और खुद ज़ेलेंस्की ने इस संदेश को साझा नहीं किया। साथ ही, समय और परिस्थितियाँ यूक्रेन के रुख और सैन्य रणनीति के बारे में ज्ञात तथ्यों से मेल नहीं खातीं। वीडियो के निर्माण का उद्देश्य यूक्रेनी प्रतिरोध को हतोत्साहित करना और यूक्रेन का समर्थन करने वाले अंतर्राष्ट्रीय समुदाय के बीच भ्रम फैलाना था।

2. स्रोत की जाँच करें

जब आप ऑनलाइन कोई वीडियो देखते हैं, तो उसके स्रोत की जांच करें। यह समझना महत्वपूर्ण है कि कोई वीडियो कहां से आता है क्योंकि हैकर्स इसका इस्तेमाल आपके खिलाफ साइबर हमला करने के लिए कर सकते हैं। हाल ही में, 75% साइबर सुरक्षा पेशेवर साइबर हमलों में वृद्धि की सूचना दी गई, जिसमें 85% ने दुर्भावनापूर्ण व्यक्तियों द्वारा जेनरेटिव एआई के उपयोग पर ध्यान दिया। 

इसका संबंध डीपफेक वीडियो के बढ़ने से है, और पेशेवर तेजी से सुरक्षा घटनाओं से निपट रहे हैं जो एआई-जनित सामग्री को बढ़ावा दे रहे हैं। वीडियो कहां से उत्पन्न हुआ, इसकी तलाश करके स्रोत को सत्यापित करें। किसी संदिग्ध स्रोत से आया वीडियो किसी बड़ी साइबर हमले की रणनीति का हिस्सा हो सकता है। 

विश्वसनीय स्रोतों से डीपफेक वीडियो फैलाने की संभावना कम होती है, जिससे वे विश्वसनीय जानकारी के लिए एक सुरक्षित विकल्प बन जाते हैं। यह सुनिश्चित करने के लिए कि आप जो देख रहे हैं वह वास्तविक है, हमेशा प्रतिष्ठित समाचार आउटलेट्स या आधिकारिक वेबसाइटों के साथ वीडियो की जांच करें।

3. चेहरे के भावों में विसंगतियों को देखें

डीपफेक के स्पष्ट संकेतों में से एक चेहरे के भावों में विसंगतियों की उपस्थिति है। जबकि डीपफेक तकनीक उन्नत हो गई है, यह अक्सर उन सूक्ष्म और जटिल गतिविधियों की सटीक नकल करने में संघर्ष करती है जो स्वाभाविक रूप से तब होती हैं जब कोई व्यक्ति बात करता है या भावनाओं को व्यक्त करता है। आप निम्नलिखित विसंगतियों को देखकर इनका पता लगा सकते हैं:

  • अप्राकृतिक पलकें झपकाना: मनुष्य नियमित, प्राकृतिक पैटर्न में पलकें झपकाते हैं। हालाँकि, डीपफेक या तो पलक झपकाने का प्रतिनिधित्व कम कर सकता है या इसे ज़्यादा कर सकता है। उदाहरण के लिए, डीपफेक में किसी व्यक्ति को बिना पलकें झपकाए या बहुत तेजी से पलकें झपकाए लंबे समय तक बात करते हुए दिखाया जा सकता है।
  • लिप सिंक त्रुटियाँ: जब कोई वीडियो में बोलता है, तो उसके होठों की हरकत बंद हो सकती है। यह देखने के लिए ध्यान से देखें कि क्या होंठ ऑडियो से मेल खाते हैं। कुछ डीपफेक में, बेमेल सूक्ष्म है लेकिन बारीकी से देखने पर पता लगाया जा सकता है।
  • चेहरे के भाव और भावनाएँ: वास्तविक मानवीय भावनाएँ जटिल होती हैं और चेहरे की गतिविधियों के माध्यम से प्रतिबिंबित होती हैं। डीपफेक अक्सर इसे पकड़ने में विफल रहते हैं, जिसके परिणामस्वरूप कठोर, अतिरंजित या पूरी तरह से संरेखित अभिव्यक्तियाँ नहीं होती हैं। उदाहरण के लिए, एक डीपफेक वीडियो में किसी व्यक्ति को कम बारीकियों के साथ मुस्कुराते या भौंहें चढ़ाते हुए दिखाया जा सकता है, या भावनात्मक प्रतिक्रिया बातचीत के संदर्भ से मेल नहीं खा सकती है।

4. ऑडियो का विश्लेषण करें

ऑडियो आपको यह भी संकेत दे सकता है कि कोई वीडियो असली है या नकली। डीपफेक तकनीक आवाजों की नकल करने का प्रयास करती है, लेकिन विसंगतियां अक्सर उन्हें दूर कर देती हैं। उदाहरण के लिए, आवाज़ की गुणवत्ता और विशेषताओं पर ध्यान दें। डीपफेक अपने भाषण में रोबोटिक या सपाट लग सकते हैं, या उनमें भावनात्मक बदलावों की कमी हो सकती है जो एक वास्तविक मानव स्वाभाविक रूप से प्रदर्शित करेगा।

पृष्ठभूमि शोर और ध्वनि की गुणवत्ता भी सुराग प्रदान कर सकती है। अचानक हुए बदलाव से यह संकेत मिल सकता है कि ऑडियो के कुछ हिस्सों को बदल दिया गया है या एक साथ जोड़ दिया गया है। प्रामाणिक वीडियो आम तौर पर संपूर्णता में एक समान बने रहते हैं।

5. प्रकाश और छाया की जाँच करें

किसी वीडियो की प्रामाणिकता प्रकट करने में प्रकाश और छाया एक बड़ी भूमिका निभाते हैं। डीपफेक तकनीक अक्सर लोगों सहित वास्तविक दुनिया की वस्तुओं के साथ प्रकाश कैसे संपर्क करती है, इसकी सटीक नकल करने में संघर्ष करती है। प्रकाश और छाया पर बारीकी से ध्यान देने से आपको विभिन्न वस्तुओं को पहचानने में मदद मिल सकती है जो इंगित करती हैं कि यह डीपफेक है या नहीं।

प्रामाणिक वीडियो में, विषय की रोशनी और परिवेश सुसंगत होना चाहिए। डीपफेक वीडियो में अनियमितताएं प्रदर्शित हो सकती हैं, जैसे चेहरा पृष्ठभूमि से अलग तरह से चमक रहा हो। यदि वीडियो की दिशा या प्रकाश के स्रोत का कोई मतलब नहीं है, तो यह हेरफेर का संकेत हो सकता है।

दूसरे, छाया को दृश्य में प्रकाश स्रोतों के अनुसार व्यवहार करना चाहिए। डीपफेक में, छायाएं गलत कोण पर दिखाई दे सकती हैं या अन्य वस्तुओं के साथ मेल खाने में विफल हो सकती हैं। छाया के आकार, दिशा और अपेक्षित छाया की उपस्थिति या अनुपस्थिति में विसंगतियाँ आपको एक समग्र विचार देती हैं।

6. भावनात्मक हेरफेर की जाँच करें

डीपफेक ठोस झूठ बनाने से कहीं अधिक करते हैं - लोग अक्सर उन्हें भावनाओं में हेरफेर करने और प्रतिक्रियाओं को भड़काने के लिए डिज़ाइन करते हैं। ऐसी सामग्री की पहचान करने का एक महत्वपूर्ण पहलू यह आकलन करना है कि क्या इसका उद्देश्य भावनात्मक प्रतिक्रिया उत्पन्न करना है जो तर्कसंगत निर्णय को धूमिल कर सकता है।

उदाहरण के लिए, उस घटना पर विचार करें जहां पेंटागन में बम की एआई-जनरेटेड छवि ट्विटर एक्स पर प्रसारित हुई। पूरी तरह से मनगढ़ंत होने के बावजूद, छवि की खतरनाक प्रकृति के कारण यह वायरल हो गई और व्यापक दहशत फैल गई। नतीजतन, $ 500 बिलियन का नुकसान शेयर बाज़ार में हुआ.

डीपफेक वीडियो समान मात्रा में दहशत फैला सकते हैं, खासकर जब एआई शामिल हो। इन वीडियो का मूल्यांकन करते समय, अपने आप से पूछें:

  • क्या सामग्री डर, गुस्सा या सदमा जैसी मजबूत भावनात्मक प्रतिक्रिया पैदा करने की कोशिश कर रही है? प्रामाणिक समाचार स्रोतों का उद्देश्य सूचित करना है, भड़काना नहीं।
  • क्या सामग्री वर्तमान घटनाओं या ज्ञात तथ्यों से मेल खाती है? भावनात्मक हेरफेर अक्सर दर्शकों को तर्कसंगत विश्लेषण से अलग करने पर निर्भर करता है।
  • क्या प्रतिष्ठित स्रोत भी यही कहानी बता रहे हैं? विश्वसनीय समाचार आउटलेट्स से पुष्टि की अनुपस्थिति भावनात्मक रूप से आरोपित सामग्री के निर्माण का संकेत दे सकती है। 

7. डीपफेक डिटेक्शन टूल्स का लाभ उठाएं

जैसे-जैसे डीपफेक अधिक परिष्कृत होते जा रहे हैं, उन्हें पहचानने के लिए केवल मानवीय अवलोकन पर निर्भर रहना चुनौतीपूर्ण हो सकता है। सौभाग्य से, असली और नकली के बीच अंतर करने के लिए उन्नत तकनीक का उपयोग करने वाले डीपफेक का पता लगाने वाले उपकरण उपलब्ध हैं। 

ये उपकरण उन विसंगतियों और विसंगतियों के लिए वीडियो का विश्लेषण कर सकते हैं जो नग्न आंखों को दिखाई नहीं दे सकती हैं। वे स्पीच वॉटरमार्किंग को एक विधि के रूप में उपयोग करके एआई और मशीन लर्निंग का लाभ उठाते हैं। ये प्रौद्योगिकियां वॉटरमार्क के स्थान को पहचानने के लिए प्रशिक्षित किया जाता है यह निर्धारित करने के लिए कि क्या ऑडियो के साथ छेड़छाड़ की गई थी।

माइक्रोसॉफ्ट ने वीडियो ऑथेंटिकेटर नामक एक टूल विकसित किया है, जो डीपफेक की संभावना का संकेत देने वाला एक कॉन्फिडेंस स्कोर प्रदान करता है। इसी तरह, स्टार्टअप और शैक्षणिक संस्थान विकसित हो रहे डीपफेक के साथ तालमेल बनाए रखने के लिए प्रौद्योगिकियों को लगातार विकसित और परिष्कृत करते रहते हैं।

डीपफेक का सफलतापूर्वक पता लगाना

प्रौद्योगिकी का उजला और अंधकारमय पक्ष है और यह लगातार विकसित हो रहा है, इसलिए आप ऑनलाइन जो देखते हैं उस पर संदेह करना महत्वपूर्ण है। जब आपका सामना किसी संदिग्ध डीपफेक से हो, तो अपनी समझ और उपलब्ध उपकरणों का उपयोग करें। इसके अतिरिक्त, हमेशा सत्यापित करें कि इसकी उत्पत्ति कहां से हुई। जब तक आप नवीनतम डीपफेक समाचारों के शीर्ष पर बने रहेंगे, आपका परिश्रम फर्जी मीडिया के युग में सच्चाई को संरक्षित करने में महत्वपूर्ण होगा।

ज़ैक अमोस एक तकनीकी लेखक हैं जो कृत्रिम बुद्धिमत्ता पर ध्यान केंद्रित करते हैं। वह फीचर संपादक भी हैं रीहैक, जहां आप उनके और काम पढ़ सकते हैं।