рдХреГрддреНрд░рд┐рдо рдмреБрджреНрдзрд┐рдорддреНрддрд╛
рдПрдЖрдИ рдЗрдВрдЬреАрдирд┐рдпрд░реНрд╕ рдиреЗ рдПрдХ рддрд░реАрдХрд╛ рд╡рд┐рдХрд╕рд┐рдд рдХрд┐рдпрд╛ рд╣реИ рдЬреЛ рдЧрд▓рдд рд╕реВрдЪрдирд╛ рдлреИрд▓рд╛рдиреЗ рд╡рд╛рд▓реЛрдВ рдХреЗ рдЗрд░рд╛рджреЗ рдХрд╛ рдкрддрд╛ рд▓рдЧрд╛ рд╕рдХрддрд╛ рд╣реИ

डिजिटल युग में गलत सूचना से निपटना एक जटिल समस्या है। न केवल गलत सूचना की पहचान करनी, टैग करनी और सुधारनी होती है, बल्कि दावे के लिए जिम्मेदार लोगों के इरादे को भी अलग करना होता है। एक व्यक्ति अनजाने में गलत सूचना फैला सकता है, या किसी मुद्दे पर अपनी राय दे सकता है, भले ही बाद में यह तथ्य के रूप में रिपोर्ट किया जाए। हाल ही में, डार्टमाउथ में एआई शोधकर्ताओं और इंजीनियरों की एक टीम ने एक फ्रेमवर्क बनाया है जिसका उपयोग “फेक न्यूज” रिपोर्ट से राय निकालने के लिए किया जा सकता है।
साइंसडेली की रिपोर्ट के अनुसार, डार्टमाउथ टीम के अध्ययन को हाल ही में जर्नल ऑफ एक्सपेरिमेंटल एंड थ्योरेटिकल आर्टिफिशियल इंटेलिजेंस में प्रकाशित किया गया था। जबकि पिछले अध्ययनों ने फेक न्यूज की पहचान करने और धोखाधड़ी से लड़ने का प्रयास किया है, यह शायद पहला अध्ययन है जिसने समाचार लेख में वक्ता के इरादे की पहचान करने का प्रयास किया है। जबकि एक सच्ची कहानी को विभिन्न धोखाधड़ी भरे रूपों में बदला जा सकता है, यह महत्वपूर्ण है कि क्या धोखाधड़ी का इरादा था या नहीं। शोध टीम का तर्क है कि गलत सूचना पर विचार करते समय इरादा महत्वपूर्ण है, क्योंकि धोखाधड़ी केवल तभी संभव है जब धोखा देने का इरादा हो। यदि कोई व्यक्ति यह नहीं जानता था कि वे गलत सूचना फैला रहे हैं या यदि वे केवल अपनी राय दे रहे थे, तो धोखाधड़ी नहीं हो सकती है।
डार्टमाउथ के थायर स्कूल ऑफ इंजीनियरिंग में इंजीनियरिंग के प्रोफेसर यूजीन सैंटोस जूनियर ने साइंसडेली को बताया कि उनके मॉडल क्यों धोखाधड़ी भरे इरादे को अलग करने का प्रयास करते हैं:
“जानबूझकर धोखा देने का इरादा अनजाने में होने वाली गलतियों की तुलना में बहुत बड़ा खतरा है। हमारे ज्ञान के अनुसार, हमारा अल्गोरिदम एकमात्र तरीका है जो धोखाधड़ी का पता लगाता है और साथ ही दुर्भावनापूर्ण कृत्यों को हानिरहित कृत्यों से अलग करता है।”
अपने मॉडल का निर्माण करने के लिए, शोध टीम ने धोखाधड़ी भरे तर्क की विशेषताओं का विश्लेषण किया। परिणामी अल्गोरिदम एक व्यक्ति के पिछले तर्क और उनके वर्तमान बयानों के बीच विसंगतियों पर ध्यान केंद्रित करके धोखा देने के इरादे को अन्य प्रकार के संचार से अलग कर सकता था। शोध टीम द्वारा निर्मित मॉडल को बड़ी मात्रा में डेटा की आवश्यकता होती है जिसका उपयोग यह मापने के लिए किया जा सकता है कि एक व्यक्ति अपने पिछले तर्क से कैसे भिन्न है। टीम द्वारा अपने मॉडल को प्रशिक्षित करने के लिए उपयोग किए जाने वाले प्रशिक्षण डेटा में विवादास्पद विषयों पर राय के सर्वेक्षण से डेटा शामिल था। 100 से अधिक लोगों ने इन विवादास्पद मुद्दों पर अपनी राय दी। 20 अलग-अलग होटलों की समीक्षाओं से डेटा भी लिया गया, जिसमें 400 कल्पित समीक्षाएं और 800 वास्तविक समीक्षाएं शामिल थीं।
सैंटोस के अनुसार, शोधकर्ताओं द्वारा विकसित फ्रेमवर्क को समाचार संगठनों और पाठकों द्वारा परिष्कृत और लागू किया जा सकता है, ताकि वे “फेक न्यूज” लेखों की सामग्री का विश्लेषण कर सकें। पाठक लेखों की जांच कर सकते हैं कि क्या उनमें राय की उपस्थिति है और यह निर्धारित कर सकते हैं कि क्या एक तर्कसंगत तर्क का उपयोग किया गया है। सैंटोस ने यह भी कहा कि टीम गलत सूचना के प्रभाव और इसके प्रभाव को देखना चाहती है।
लोकप्रिय संस्कृति अक्सर गैर-मौखिक व्यवहार जैसे चेहरे के भावों को धोखा देने के संकेतक के रूप में चित्रित करती है, लेकिन अध्ययन के लेखकों का उल्लेख है कि ये व्यवहार संबंधी संकेत धोखा देने के विश्वसनीय संकेतक नहीं हैं। डीक्विंग ली, पेपर के सह-लेखक ने समझाया कि उनके शोध में पाया गया कि तर्कसंगत इरादे पर आधारित मॉडल धोखा देने के लिए बेहतर संकेतक हैं niż व्यवहारिक और मौखिक मतभेद। ली ने समझाया कि तर्कसंगत इरादे मॉडल “जानबूझकर झूठ बोलने को अन्य प्रकार के जानकारी विकृति से अलग करने में बेहतर हैं।”
डार्टमाउथ शोधकर्ताओं का काम गलत सूचना से लड़ने के लिए एआई के साथ हाल के उन्नति का एकमात्र नहीं है। क्लिकबेट शीर्षक वाले समाचार लेख अक्सर गलत सूचना को छुपाते हैं। उदाहरण के लिए, वे अक्सर यह सुझाव देते हैं कि कुछ हुआ है जब वास्तव में कुछ और घटना हुई है।
एआईन्यूज की रिपोर्ट के अनुसार, एरिजोना स्टेट यूनिवर्सिटी और पेन स्टेट यूनिवर्सिटी के शोधकर्ताओं की एक टीम ने क्लिकबेट का पता लगाने के लिए एक एआई बनाने के लिए सहयोग किया। शोधकर्ताओं ने लोगों से अपने क्लिकबेट शीर्षक लिखने और एक कार्यक्रम लिखने के लिए कहा जो क्लिकबेट शीर्षक उत्पन्न कर सकता था। दोनों प्रकार के शीर्षकों का उपयोग एक मॉडल को प्रशिक्षित करने के लिए किया गया था जो क्लिकबेट शीर्षकों का पता लगा सकता था, चाहे वे मशीनों द्वारा या लोगों द्वारा लिखे गए हों।
शोधकर्ताओं के अनुसार, उनके अल्गोरिदम ने क्लिकबेट शीर्षकों का पता लगाने में लगभग 14.5% अधिक सटीकता दिखाई, जो कि पहले एआई द्वारा थी। प्रोजेक्ट के लीड रिसर्चर और पेन स्टेट यूनिवर्सिटी के कॉलेज ऑफ इंफॉर्मेशन साइंसेज एंड टेक्नोलॉजी में एसोसिएट प्रोफेसर, डोंगवोन ली ने समझाया कि उनके प्रयोग से डेटा को एआई के साथ उत्पन्न करने और इसे प्रशिक्षण पाइपलाइन में वापस फीड करने की उपयोगिता का प्रदर्शन होता है।
“यह परिणाम बहुत दिलचस्प है क्योंकि हमने सफलतापूर्वक प्रदर्शित किया है कि मशीन-जनित क्लिकबेट प्रशिक्षण डेटा को प्रशिक्षण पाइपलाइन में वापस फीड किया जा सकता है ताकि विभिन्न प्रकार के मशीन लर्निंग मॉडलों को बेहतर प्रदर्शन मिल सके।”












