Connect with us

рдлреЗрд╕рдмреБрдХ рдХреЗ рдПрдЖрдИ рдХреИрд╕реЗ рдЧрд▓рдд рд╕реВрдЪрдирд╛ рдлреИрд▓рд╛рддреЗ рд╣реИрдВ рдФрд░ рд▓реЛрдХрддрдВрддреНрд░ рдХреЛ рдЦрддрд░рд╛ рдкрд╣реБрдВрдЪрд╛рддреЗ рд╣реИрдВ

рд╡рд┐рдЪрд╛рд░ рдиреЗрддрд╛

рдлреЗрд╕рдмреБрдХ рдХреЗ рдПрдЖрдИ рдХреИрд╕реЗ рдЧрд▓рдд рд╕реВрдЪрдирд╛ рдлреИрд▓рд╛рддреЗ рд╣реИрдВ рдФрд░ рд▓реЛрдХрддрдВрддреНрд░ рдХреЛ рдЦрддрд░рд╛ рдкрд╣реБрдВрдЪрд╛рддреЗ рд╣реИрдВ

mm

डैन टंकेलांग, जिन्होंने लिंक्डइन में एआई अनुसंधान की देखरेख की, ने कहा: “जब सिफारिशें निर्णयों को प्रभावित करने की शक्ति रखती हैं, तो वे स्पैमर, स्कैमर और कम से कम महान प्रेरणा वाले लोगों के लिए एक लक्ष्य बन जाती हैं।”

यह वह दुविधा है जिसका सामना सोशल मीडिया कंपनियां जैसे कि फेसबुक कर रही हैं। फेसबुक आंतरिक प्रतिक्रिया का उपयोग करता है ताकि क्लिक, दृश्य, और अन्य मापनीय उपयोगकर्ता व्यवहारों को ट्रैक किया जा सके। यह एक “सिफारिश इंजन” को डिज़ाइन करने के लिए उपयोग किया जाता है, जो एक एआई सिस्टम है जिसमें यह तय करने की अंतिम शक्ति है कि कौन सा उपयोगकर्ता किस सामग्री को देखता है और कब।

फेसबुक ने अपने सिफारिश इंजन को उपयोगकर्ता जुड़ाव को अधिकतम करने के लिए अनुकूलित किया है, जो फेसबुक प्लेटफ़ॉर्म पर बिताए गए समय की मात्रा से मापा जाता है। समय का अधिकतमीकरण किसी भी अन्य चर के ऊपर प्राथमिकता लेता है, जिसमें सिफारिश की जाने वाली सामग्री की गुणवत्ता या सटीकता शामिल है।

सिस्टम को संवेदनशील हेडलाइंस को पुरस्कृत करने के लिए डिज़ाइन किया गया है जो संज्ञानात्मक पूर्वाग्रह का फायदा उठाकर उपयोगकर्ताओं को आकर्षित करता है, भले ही वे हेडलाइंस रूसी ट्रोल्स द्वारा लिखे गए हों जिनका उद्देश्य समाज को विभाजित करना या राजनीतिक चुनावों को प्रभावित करना हो।

फेसबुक एआई का उपयोग कैसे करता है

फेसबुक कैसे एआई का उपयोग करके तय करता है कि उसके उपयोगकर्ता क्या देखते हैं और किस सामग्री के साथ बातचीत करते हैं, इसके बारे में जागरूकता की कमी है। सबसे पहले, आपको यह समझना होगा कि पुष्टिकरण पूर्वाग्रह क्या है। प्साइकोलॉजी टुडे इसे इस प्रकार वर्णित करता है:

पुष्टिकरण पूर्वाग्रह एक प्रवृत्ति है जिसमें आप अपने पूर्वाग्रहों या मूल्यों की पुष्टि करने वाली जानकारी की तलाश करते हैं, व्याख्या करते हैं, पसंद करते हैं और याद रखते हैं।

फेसबुक समझता है कि उपयोगकर्ता उन समाचारों पर क्लिक करने की अधिक संभावना रखते हैं जो मानव प्रवृत्ति को पुष्टिकरण पूर्वाग्रह की ओर ले जाते हैं। यह एक खतरनाक पूर्वाग्रह है जो साजिश सिद्धांतों के प्रसार और उन इको चैंबर्स के निर्माण के लिए जिम्मेदार है जहां उपयोगकर्ताओं को केवल वही दिखाया जाता है जो वे देखना चाहते हैं, सटीकता या दिखाए जा रहे सामग्री के सामाजिक प्रभाव की परवाह किए बिना।

एक एमआईटी के अध्ययन से पता चलता है कि ट्विटर पर नकली समाचार वास्तविक समाचार की तुलना में 6 गुना तेजी से फैलते हैं।

इसका मतलब है कि ट्विटर और फेसबुक दोनों ही हथियार बन सकते हैं। जबकि ट्विटर किसी को भी संकीर्ण या पक्षपातपूर्ण दृष्टिकोण वाले फीड का अनुसरण करने की अनुमति देता है, फेसबुक इसे एक कदम आगे ले जाता है। फेसबुक पर एक उपयोगकर्ता के पास वर्तमान में यह देखने के लिए कोई तरीका नहीं है कि क्या दिखाया जा रहा है, यह पूरी तरह से फेसबुक के सिफारिश इंजन, उपयोगकर्ता जुड़ाव को मापने और इसी जुड़ाव के लिए अनुकूलन द्वारा नियंत्रित किया जाता है।

फेसबुक अपने उपयोगकर्ताओं की इच्छाओं को आकार देने और भविष्यवाणी करने का प्रयास करता है। फेसबुक अनुमान लगाता है कि एक उपयोगकर्ता किसी समाचार आइटम को पसंद करेगा या नापसंद करेगा जिसे उपयोगकर्ता ने अभी तक अनुभव नहीं किया है। उपयोगकर्ता जुड़ाव में कमी से बचने के लिए, फेसबुक तब समाचार आइटम को छोड़ देता है जो जुड़ाव के स्तर को कम कर सकता है, और इसके बजाय उपयोगकर्ता को पुष्टिकरण पूर्वाग्रह को खिलाने वाली समाचार आइटम के साथ जुड़ाव बढ़ाने का विकल्प चुनता है, जिससे अधिक क्लिक, टिप्पणियां, पसंद और शेयर होते हैं।

फेसबुक ऐतिहासिक उपयोगकर्ता क्रियाओं और राय के स्वचालित सहयोगी फिल्टरिंग का भी उपयोग करता है ताकि भागीदारों (मित्रों) को समान राय वाले लोगों के साथ स्वचालित रूप से मिलाया जा सके। फेसबुक एक उपयोगिता फंक्शन का उपयोग करता है जो स्वचालित रूप से और गणितीय रूप से आपकी पसंद की वस्तुओं की भविष्यवाणी और रैंकिंग करता है जिन्हें आप देखना चाहते हैं।

यह उपयोगकर्ताओं को एक खरगोश के छेद में डालता है, वे नकली समाचार में फंस जाते हैं, जो सामग्री प्रस्तुत की जाती है जो आपके पूर्वाग्रह को मजबूत करती है। प्रस्तुत की गई सामग्री का उद्देश्य आपको क्लिक करने के लिए प्रेरित करना है। यदि आप यह विश्वास करते हैं कि बिल गेट्स टीकों का उपयोग करके मानव आबादी को माइक्रोचिप लगाने की कोशिश कर रहे हैं, तो फेसबुक आपको विपरीत साक्ष्य क्यों प्रस्तुत करेगा जो आपको प्लेटफ़ॉर्म से दूर कर सकता है? यदि आप किसी विशिष्ट राजनीतिक उम्मीदवार का समर्थन करते हैं तो फेसबुक आपको ऐसी खबरें क्यों दिखाएगा जो आपके उसी उम्मीदवार के सकारात्मक दृष्टिकोण के विपरीत हो?

फेसबुक सामाजिक प्रमाण का भी उपयोग करता है, जो यह概念 है कि लोग भीड़ की क्रियाओं का अनुसरण करेंगे। यह विचार है कि चूंकि इतने सारे लोग एक निश्चित तरीके से व्यवहार करते हैं, इसलिए यह सही व्यवहार होना चाहिए।

फेसबुक सामाजिक प्रमाण को पसंद, टिप्पणियों या शेयरों के संदर्भ में प्रदान करता है। चूंकि केवल कुछ मित्र ही समाचार फीड आइटम (जब तक वे विशेष रूप से एक उपयोगकर्ता के समाचार फीड की खोज नहीं करते) देख सकते हैं, सामाजिक प्रमाण केवल पुष्टिकरण पूर्वाग्रह को मजबूत करने के लिए काम करता है।

फेसबुक फिल्टर बबल का भी उपयोग करता है ताकि विरोधाभासी, विरोधी और चुनौतीपूर्ण दृष्टिकोणों के संपर्क में आने से रोका जा सके।

फेसबुक विज्ञापन

अनजान फेसबुक उपयोगकर्ता विज्ञापनों पर क्लिक कर सकते हैं बिना यह जाने कि वे विज्ञापन देख रहे हैं। इसका कारण सरल है, यदि केवल पहला व्यक्ति जिसे विज्ञापन दिखाया जाता है तो विज्ञापन डिस्क्लेमर देखेगा। यदि उस उपयोगकर्ता ने विज्ञापन साझा किया है, तो उसके सभी मित्र सूची में यह समाचार फीड आइटम के रूप में दिखाई देता है क्योंकि फेसबुक जानबूझकर विज्ञापन डिस्क्लेमर को छोड़ देता है। तुरंत, उपयोगकर्ता अपनी रक्षा कम कर देते हैं, वे विज्ञापन और उस सामग्री के बीच अंतर नहीं कर पाते हैं जो उनके समाचार फीड पर स्वाभाविक रूप से दिखाई देती है।

फेसबुक शेयर

दुर्भाग्य से, चीजें और भी खराब हो जाती हैं। यदि एक उपयोगकर्ता के 1000 मित्र एक ही समय में सामग्री साझा करते हैं, तो सिफारिश इंजन उन अल्पसंख्यक की सामग्री को प्राथमिकता देगा जो समान दृष्टिकोण साझा करते हैं, भले ही वे अक्सर अप्रमाणित साजिश सिद्धांतों से मिले हों। उपयोगकर्ता तब यह धारणा बना लेता है कि ये समाचार फीड आइटम हर किसी को दिखाई दे रहे हैं। इस समाचार फीड के साथ जुड़कर, ये उपयोगकर्ता एक दूसरे के सामाजिक प्रमाण को अनुकूलित कर रहे हैं।

यदि कोई उपयोगकर्ता दूसरे उपयोगकर्ता को भ्रामक या नकली आइटम के बारे में जागरूक करने का प्रयास करता है, तो मूल उपयोगकर्ता के साथ जुड़ने का कार्य केवल मूल उपयोगकर्ता के जुड़ाव के समय को बढ़ाता है। यह फीडबैक लूप फेसबुक को उस उपयोगकर्ता को नकली समाचार से जोड़ने के लिए प्रेरित करता है।

यह एक इको चैंबर, एक फिल्टर बबल बनाता है जहां उपयोगकर्ता को केवल वही विश्वास करने के लिए प्रशिक्षित किया जाता है जो वे देखते हैं। सच्चाई केवल एक भ्रम है।

मुद्दे की गंभीरता

10 मिलियन से अधिक लोगों ने एक समाचार फीड के साथ जुड़े, जिसमें दावा किया गया था कि पोप फ्रांसिस ने 2016 में ट्रम्प के चुनाव का समर्थन किया था। इसका कोई सबूत नहीं था, यह केवल एक नकली समाचार की कहानी थी जो रूस से निकली थी, फिर भी यह 2016 के चुनाव से पहले तीन महीनों में फेसबुक पर सबसे अधिक साझा की जाने वाली समाचार कहानी थी।

समाचार आइटम एक रूसी ट्रोल फार्म द्वारा उत्पन्न किया गया था जिसे “इंटरनेट रिसर्च एजेंसी” कहते हैं। यही संगठन ट्विटर और फेसबुक पर नस्लवादी लेखों को बढ़ावा देने और साझा करने के लिए जिम्मेदार था, जो ब्लैक लाइव्स मैटर को बदनाम करने और नकली समाचार आइटम फैलाने के लिए जिम्मेदार था जो अमेरिकी राजनेताओं के बारे में झूठे दावे करते थे।

सेलेक्ट कमिटी ऑन इंटेलिजेंस ने 85 पृष्ठों की रिपोर्ट जारी की जिसमें रूसी एक्टिव मेजर्स अभियान और हस्तक्षेप के बारे में विवरण दिया गया था, जिसमें अधिकांश भाग विभाजनकारी नकली समाचार और प्रचार के प्रसार से संबंधित था जिसका एकमात्र उद्देश्य 2016 के अमेरिकी चुनाव को प्रभावित करना था।

2020 के चुनाव में आगे बढ़ने पर समस्या और भी गंभीर हो गई है। सितंबर 2020 में, एफबीआई की सूचना के बाद फेसबुक और ट्विटर ने रूसी प्रचार प्रयासों से जुड़े एक समाचार संगठन पीसडेटा के सोशल मीडिया खातों को निलंबित कर दिया।

दुर्भाग्य से, खातों को बंद करना एक अस्थायी और अप्रभावी समाधान है। रूसी खाते अक्सर महिलाओं के साथ आकर्षक प्रोफाइल वाले मित्र अनुरोधों का रूप ले लेते हैं जो पुरुषों को लक्षित करते हैं, या फिर नियमित पोस्ट के इतिहास वाले उपयोगकर्ता खातों को हैक कर लेते हैं। ये हैक किए गए खाते धीरे-धीरे राजनीतिक पोस्ट में बदल जाते हैं, जब तक कि वे प्रचार या साजिश सिद्धांतों से भरे नहीं हो जाते।

एक अनजान उपयोगकर्ता यह नहीं जान पाता है कि उसके मित्र का खाता खतरे में है। यदि उपयोगकर्ता साजिश सिद्धांतों के प्रति संवेदनशील है, तो वे नकली समाचार फीड आइटम में जुड़ सकते हैं, रूसी ट्रोल, जो अक्सर एक बॉट होता है, तब सामाजिक प्रमाण के रूप में पसंद या टिप्पणियों के माध्यम से अतिरिक्त सामाजिक प्रमाण प्रदान करता है।

कमजोर उपयोगकर्ता अक्सर वे होते हैं जो प्रौद्योगिकी और एआई के काम करने के तरीके को कम से कम समझते हैं। 65 से अधिक आयु वर्ग, जो मतदान के लिए सबसे अधिक संभावना रखता है, नकली समाचार फैलाने की सबसे अधिक संभावना रखता है, जैसा कि न्यूयॉर्क टाइम्स द्वारा रिपोर्ट किया गया है।

अध्ययन के अनुसार, फेसबुक उपयोगकर्ता 65 और उससे अधिक आयु वर्ग के लोगों ने 29 और उससे कम आयु वर्ग के वयस्कों की तुलना में नकली समाचार वेबसाइटों से लेख साझा किए। डिजिटल मीडिया साक्षरता की कमी इस आयु वर्ग को तथ्यों या सटीकता पर आधारित नहीं बल्कि उपयोगकर्ता जुड़ाव पर आधारित समाचार फीड के लिए तैयार नहीं करती है।

बुरे अभिनेता फेसबुक के सिफारिश इंजन का फायदा उठा रहे हैं जो हमारे संज्ञानात्मक पूर्वाग्रहों का फायदा उठाता है। ये संगठन फेसबुक के एआई के दुरुपयोग को साजिश सिद्धांतों और प्रचार को फैलाने के लिए अनुकूलित कर चुके हैं। साजिश सिद्धांत जो पहली नज़र में निर्दोष लगते हैं, अक्सर सफेद वर्चस्व, दूर-दूर के राष्ट्रवाद या क्यूएएनओएन जैसी विचित्र साजिश सिद्धांत में मजमूनी होते हैं, जिसमें ट्रम्प को दुनिया को उदार पेडोफाइल से बचाने का प्रयास करने वाला एक सिद्धांत शामिल है, जिसका वास्तविकता में कोई आधार नहीं है।

सारांश

फेसबुक明显 जानता है कि समस्या है और उन्होंने एक रणनीति की घोषणा की है जो फेसबुक के सामुदायिक मानकों का उल्लंघन करने वाली सामग्री को हटाने पर केंद्रित है। समस्या यह है कि खातों को हटाना एक अस्थायी उपाय है जो तब अप्रभावी हो जाता है जब खाते बॉट द्वारा बड़े पैमाने पर या उपयोगकर्ता खातों के mass हैकिंग द्वारा उत्पन्न किए जाते हैं। यह समस्या का समाधान नहीं करता है कि अधिकांश साझा करने वाले नियमित उपयोगकर्ता हैं जो यह नहीं जानते हैं कि वे गलत सूचना फैला रहे हैं।

चेतावनी लेबल जोड़ना केवल साजिश सिद्धांतों को मजबूत करता है कि सोशल मीडिया दिग्गज रूढ़िवादी विचारों के प्रति पक्षपाती हैं।

समाधान एक नए सिफारिश इंजन की आवश्यकता है जो केवल उपयोगकर्ता जुड़ाव को मापता है, बल्कि उपयोगकर्ता की खुशी के लिए अनुकूलित होता है जो सत्य और सुधारित स्व-जागरूकता प्रदान करता है।

इस बीच, फेसबुक को ट्विटर द्वारा राजनीतिक विज्ञापनों पर प्रतिबंध लगाने के रास्ते पर चलना चाहिए।

अंत में, एक महत्वपूर्ण प्रश्न पूछने की आवश्यकता है। यदि लोगों के पास यह विकल्प नहीं है कि वे कौन सी खबर देखते हैं, तो यह सिफारिश कब से मनोवृत्ति नियंत्रण में बदल जाती है?

सिफारिशित पढ़ाई:

रूसी एक्टिव मेजर्स अभियान और हस्तक्षेप – सेलेक्ट कमिटी ऑन इंटेलिजेंस यूनाइटेड स्टेट्स सीनेट द्वारा रिपोर्ट।

लोकतंत्र के अंत की भविष्यवाणी करने वाला चौंकाने वाला पत्र – जॉर्ज वाशिंगटन विश्वविद्यालय के इतिहास न्यूज नेटवर्क के संस्थापक रिक शेंकमैन द्वारा।

बुजुर्ग लोग फेसबुक पर नकली समाचार साझा करते हैं – न्यूयॉर्क टाइम्स द्वारा।

рдПрдВрдЯреЛрдиреА рдПрдХ рджреВрд░рджрд░реНрд╢реА рдиреЗрддрд╛ рдФрд░ Unite.AI рдХреЗ рд╕рдВрд╕реНрдерд╛рдкрдХ рднрд╛рдЧреАрджрд╛рд░ рд╣реИрдВ, рдЬреЛ рдХрд┐ рдПрдЖрдИ рдФрд░ рд░реЛрдмреЛрдЯрд┐рдХреНрд╕ рдХреЗ рднрд╡рд┐рд╖реНрдп рдХреЛ рдЖрдХрд╛рд░ рджреЗрдиреЗ рдФрд░ рдмрдврд╝рд╛рд╡рд╛ рджреЗрдиреЗ рдХреЗ рд▓рд┐рдП рдПрдХ рдЕрдЯреВрдЯ рдЬреБрдиреВрди рд╕реЗ рдкреНрд░реЗрд░рд┐рдд рд╣реИрдВред рдПрдХ рд╢реНрд░реГрдВрдЦрд▓рд╛ рдЙрджреНрдпрдореА, рд╡рд╣ рдорд╛рдирддрд╛ рд╣реИ рдХрд┐ рдПрдЖрдИ рд╕рдорд╛рдЬ рдХреЗ рд▓рд┐рдП рдЙрддрдирд╛ рд╣реА рд╡рд┐рдШрдЯрдирдХрд╛рд░реА рд╣реЛрдЧрд╛ рдЬрд┐рддрдирд╛ рдХрд┐ рдмрд┐рдЬрд▓реА, рдФрд░ рдЕрдХреНрд╕рд░ рд╡рд┐рдШрдЯрдирдХрд╛рд░реА рдкреНрд░реМрджреНрдпреЛрдЧрд┐рдХрд┐рдпреЛрдВ рдФрд░ рдПрдЬреАрдЖрдИ рдХреА рд╕рдВрднрд╛рд╡рдирд╛ рдХреЗ рдмрд╛рд░реЗ рдореЗрдВ рдЙрддреНрд╕рд╛рд╣рд┐рдд рд╣реЛрддрд╛ рд╣реИред

рдПрдХ рдлреНрдпреВрдЪрд░рд┐рд╕реНрдЯ рдХреЗ рд░реВрдк рдореЗрдВ, рд╡рд╣ рдЗрди рдирд╡рд╛рдЪрд╛рд░реЛрдВ рдХреЗ рдорд╛рдзреНрдпрдо рд╕реЗ рд╣рдорд╛рд░реА рджреБрдирд┐рдпрд╛ рдХреЛ рдЖрдХрд╛рд░ рджреЗрдиреЗ рдХреА рдЦреЛрдЬ рдореЗрдВ рд╕рдорд░реНрдкрд┐рдд рд╣реИред рдЗрд╕рдХреЗ рдЕрд▓рд╛рд╡рд╛, рд╡рд╣ рд╕рд┐рдХреНрдпреЛрд░рд┐рдЯреАрдЬрд╝.io рдХреЗ рд╕рдВрд╕реНрдерд╛рдкрдХ рд╣реИрдВ, рдПрдХ рдордВрдЪ рдЬреЛ рднрд╡рд┐рд╖реНрдп рдХреЛ рдлрд┐рд░ рд╕реЗ рдкрд░рд┐рднрд╛рд╖рд┐рдд рдХрд░рдиреЗ рдФрд░ рдкреВрд░реЗ рдХреНрд╖реЗрддреНрд░реЛрдВ рдХреЛ рдлрд┐рд░ рд╕реЗ рдЖрдХрд╛рд░ рджреЗрдиреЗ рд╡рд╛рд▓реА рдЕрддреНрдпрд╛рдзреБрдирд┐рдХ рдкреНрд░реМрджреНрдпреЛрдЧрд┐рдХрд┐рдпреЛрдВ рдореЗрдВ рдирд┐рд╡реЗрд╢ рдкрд░ рдХреЗрдВрджреНрд░рд┐рдд рд╣реИред