рд╡рд┐рдЪрд╛рд░ рдиреЗрддрд╛
рдлреЗрд╕рдмреБрдХ рдХреЗ рдПрдЖрдИ рдХреИрд╕реЗ рдЧрд▓рдд рд╕реВрдЪрдирд╛ рдлреИрд▓рд╛рддреЗ рд╣реИрдВ рдФрд░ рд▓реЛрдХрддрдВрддреНрд░ рдХреЛ рдЦрддрд░рд╛ рдкрд╣реБрдВрдЪрд╛рддреЗ рд╣реИрдВ

डैन टंकेलांग, जिन्होंने लिंक्डइन में एआई अनुसंधान की देखरेख की, ने कहा: “जब सिफारिशें निर्णयों को प्रभावित करने की शक्ति रखती हैं, तो वे स्पैमर, स्कैमर और कम से कम महान प्रेरणा वाले लोगों के लिए एक लक्ष्य बन जाती हैं।”
यह वह दुविधा है जिसका सामना सोशल मीडिया कंपनियां जैसे कि फेसबुक कर रही हैं। फेसबुक आंतरिक प्रतिक्रिया का उपयोग करता है ताकि क्लिक, दृश्य, और अन्य मापनीय उपयोगकर्ता व्यवहारों को ट्रैक किया जा सके। यह एक “सिफारिश इंजन” को डिज़ाइन करने के लिए उपयोग किया जाता है, जो एक एआई सिस्टम है जिसमें यह तय करने की अंतिम शक्ति है कि कौन सा उपयोगकर्ता किस सामग्री को देखता है और कब।
फेसबुक ने अपने सिफारिश इंजन को उपयोगकर्ता जुड़ाव को अधिकतम करने के लिए अनुकूलित किया है, जो फेसबुक प्लेटफ़ॉर्म पर बिताए गए समय की मात्रा से मापा जाता है। समय का अधिकतमीकरण किसी भी अन्य चर के ऊपर प्राथमिकता लेता है, जिसमें सिफारिश की जाने वाली सामग्री की गुणवत्ता या सटीकता शामिल है।
सिस्टम को संवेदनशील हेडलाइंस को पुरस्कृत करने के लिए डिज़ाइन किया गया है जो संज्ञानात्मक पूर्वाग्रह का फायदा उठाकर उपयोगकर्ताओं को आकर्षित करता है, भले ही वे हेडलाइंस रूसी ट्रोल्स द्वारा लिखे गए हों जिनका उद्देश्य समाज को विभाजित करना या राजनीतिक चुनावों को प्रभावित करना हो।
फेसबुक एआई का उपयोग कैसे करता है
फेसबुक कैसे एआई का उपयोग करके तय करता है कि उसके उपयोगकर्ता क्या देखते हैं और किस सामग्री के साथ बातचीत करते हैं, इसके बारे में जागरूकता की कमी है। सबसे पहले, आपको यह समझना होगा कि पुष्टिकरण पूर्वाग्रह क्या है। प्साइकोलॉजी टुडे इसे इस प्रकार वर्णित करता है:
पुष्टिकरण पूर्वाग्रह एक प्रवृत्ति है जिसमें आप अपने पूर्वाग्रहों या मूल्यों की पुष्टि करने वाली जानकारी की तलाश करते हैं, व्याख्या करते हैं, पसंद करते हैं और याद रखते हैं।
फेसबुक समझता है कि उपयोगकर्ता उन समाचारों पर क्लिक करने की अधिक संभावना रखते हैं जो मानव प्रवृत्ति को पुष्टिकरण पूर्वाग्रह की ओर ले जाते हैं। यह एक खतरनाक पूर्वाग्रह है जो साजिश सिद्धांतों के प्रसार और उन इको चैंबर्स के निर्माण के लिए जिम्मेदार है जहां उपयोगकर्ताओं को केवल वही दिखाया जाता है जो वे देखना चाहते हैं, सटीकता या दिखाए जा रहे सामग्री के सामाजिक प्रभाव की परवाह किए बिना।
एक एमआईटी के अध्ययन से पता चलता है कि ट्विटर पर नकली समाचार वास्तविक समाचार की तुलना में 6 गुना तेजी से फैलते हैं।
इसका मतलब है कि ट्विटर और फेसबुक दोनों ही हथियार बन सकते हैं। जबकि ट्विटर किसी को भी संकीर्ण या पक्षपातपूर्ण दृष्टिकोण वाले फीड का अनुसरण करने की अनुमति देता है, फेसबुक इसे एक कदम आगे ले जाता है। फेसबुक पर एक उपयोगकर्ता के पास वर्तमान में यह देखने के लिए कोई तरीका नहीं है कि क्या दिखाया जा रहा है, यह पूरी तरह से फेसबुक के सिफारिश इंजन, उपयोगकर्ता जुड़ाव को मापने और इसी जुड़ाव के लिए अनुकूलन द्वारा नियंत्रित किया जाता है।
फेसबुक अपने उपयोगकर्ताओं की इच्छाओं को आकार देने और भविष्यवाणी करने का प्रयास करता है। फेसबुक अनुमान लगाता है कि एक उपयोगकर्ता किसी समाचार आइटम को पसंद करेगा या नापसंद करेगा जिसे उपयोगकर्ता ने अभी तक अनुभव नहीं किया है। उपयोगकर्ता जुड़ाव में कमी से बचने के लिए, फेसबुक तब समाचार आइटम को छोड़ देता है जो जुड़ाव के स्तर को कम कर सकता है, और इसके बजाय उपयोगकर्ता को पुष्टिकरण पूर्वाग्रह को खिलाने वाली समाचार आइटम के साथ जुड़ाव बढ़ाने का विकल्प चुनता है, जिससे अधिक क्लिक, टिप्पणियां, पसंद और शेयर होते हैं।
फेसबुक ऐतिहासिक उपयोगकर्ता क्रियाओं और राय के स्वचालित सहयोगी फिल्टरिंग का भी उपयोग करता है ताकि भागीदारों (मित्रों) को समान राय वाले लोगों के साथ स्वचालित रूप से मिलाया जा सके। फेसबुक एक उपयोगिता फंक्शन का उपयोग करता है जो स्वचालित रूप से और गणितीय रूप से आपकी पसंद की वस्तुओं की भविष्यवाणी और रैंकिंग करता है जिन्हें आप देखना चाहते हैं।
यह उपयोगकर्ताओं को एक खरगोश के छेद में डालता है, वे नकली समाचार में फंस जाते हैं, जो सामग्री प्रस्तुत की जाती है जो आपके पूर्वाग्रह को मजबूत करती है। प्रस्तुत की गई सामग्री का उद्देश्य आपको क्लिक करने के लिए प्रेरित करना है। यदि आप यह विश्वास करते हैं कि बिल गेट्स टीकों का उपयोग करके मानव आबादी को माइक्रोचिप लगाने की कोशिश कर रहे हैं, तो फेसबुक आपको विपरीत साक्ष्य क्यों प्रस्तुत करेगा जो आपको प्लेटफ़ॉर्म से दूर कर सकता है? यदि आप किसी विशिष्ट राजनीतिक उम्मीदवार का समर्थन करते हैं तो फेसबुक आपको ऐसी खबरें क्यों दिखाएगा जो आपके उसी उम्मीदवार के सकारात्मक दृष्टिकोण के विपरीत हो?
फेसबुक सामाजिक प्रमाण का भी उपयोग करता है, जो यह概念 है कि लोग भीड़ की क्रियाओं का अनुसरण करेंगे। यह विचार है कि चूंकि इतने सारे लोग एक निश्चित तरीके से व्यवहार करते हैं, इसलिए यह सही व्यवहार होना चाहिए।
फेसबुक सामाजिक प्रमाण को पसंद, टिप्पणियों या शेयरों के संदर्भ में प्रदान करता है। चूंकि केवल कुछ मित्र ही समाचार फीड आइटम (जब तक वे विशेष रूप से एक उपयोगकर्ता के समाचार फीड की खोज नहीं करते) देख सकते हैं, सामाजिक प्रमाण केवल पुष्टिकरण पूर्वाग्रह को मजबूत करने के लिए काम करता है।
फेसबुक फिल्टर बबल का भी उपयोग करता है ताकि विरोधाभासी, विरोधी और चुनौतीपूर्ण दृष्टिकोणों के संपर्क में आने से रोका जा सके।
फेसबुक विज्ञापन
अनजान फेसबुक उपयोगकर्ता विज्ञापनों पर क्लिक कर सकते हैं बिना यह जाने कि वे विज्ञापन देख रहे हैं। इसका कारण सरल है, यदि केवल पहला व्यक्ति जिसे विज्ञापन दिखाया जाता है तो विज्ञापन डिस्क्लेमर देखेगा। यदि उस उपयोगकर्ता ने विज्ञापन साझा किया है, तो उसके सभी मित्र सूची में यह समाचार फीड आइटम के रूप में दिखाई देता है क्योंकि फेसबुक जानबूझकर विज्ञापन डिस्क्लेमर को छोड़ देता है। तुरंत, उपयोगकर्ता अपनी रक्षा कम कर देते हैं, वे विज्ञापन और उस सामग्री के बीच अंतर नहीं कर पाते हैं जो उनके समाचार फीड पर स्वाभाविक रूप से दिखाई देती है।
फेसबुक शेयर
दुर्भाग्य से, चीजें और भी खराब हो जाती हैं। यदि एक उपयोगकर्ता के 1000 मित्र एक ही समय में सामग्री साझा करते हैं, तो सिफारिश इंजन उन अल्पसंख्यक की सामग्री को प्राथमिकता देगा जो समान दृष्टिकोण साझा करते हैं, भले ही वे अक्सर अप्रमाणित साजिश सिद्धांतों से मिले हों। उपयोगकर्ता तब यह धारणा बना लेता है कि ये समाचार फीड आइटम हर किसी को दिखाई दे रहे हैं। इस समाचार फीड के साथ जुड़कर, ये उपयोगकर्ता एक दूसरे के सामाजिक प्रमाण को अनुकूलित कर रहे हैं।
यदि कोई उपयोगकर्ता दूसरे उपयोगकर्ता को भ्रामक या नकली आइटम के बारे में जागरूक करने का प्रयास करता है, तो मूल उपयोगकर्ता के साथ जुड़ने का कार्य केवल मूल उपयोगकर्ता के जुड़ाव के समय को बढ़ाता है। यह फीडबैक लूप फेसबुक को उस उपयोगकर्ता को नकली समाचार से जोड़ने के लिए प्रेरित करता है।
यह एक इको चैंबर, एक फिल्टर बबल बनाता है जहां उपयोगकर्ता को केवल वही विश्वास करने के लिए प्रशिक्षित किया जाता है जो वे देखते हैं। सच्चाई केवल एक भ्रम है।
मुद्दे की गंभीरता
10 मिलियन से अधिक लोगों ने एक समाचार फीड के साथ जुड़े, जिसमें दावा किया गया था कि पोप फ्रांसिस ने 2016 में ट्रम्प के चुनाव का समर्थन किया था। इसका कोई सबूत नहीं था, यह केवल एक नकली समाचार की कहानी थी जो रूस से निकली थी, फिर भी यह 2016 के चुनाव से पहले तीन महीनों में फेसबुक पर सबसे अधिक साझा की जाने वाली समाचार कहानी थी।
समाचार आइटम एक रूसी ट्रोल फार्म द्वारा उत्पन्न किया गया था जिसे “इंटरनेट रिसर्च एजेंसी” कहते हैं। यही संगठन ट्विटर और फेसबुक पर नस्लवादी लेखों को बढ़ावा देने और साझा करने के लिए जिम्मेदार था, जो ब्लैक लाइव्स मैटर को बदनाम करने और नकली समाचार आइटम फैलाने के लिए जिम्मेदार था जो अमेरिकी राजनेताओं के बारे में झूठे दावे करते थे।
सेलेक्ट कमिटी ऑन इंटेलिजेंस ने 85 पृष्ठों की रिपोर्ट जारी की जिसमें रूसी एक्टिव मेजर्स अभियान और हस्तक्षेप के बारे में विवरण दिया गया था, जिसमें अधिकांश भाग विभाजनकारी नकली समाचार और प्रचार के प्रसार से संबंधित था जिसका एकमात्र उद्देश्य 2016 के अमेरिकी चुनाव को प्रभावित करना था।
2020 के चुनाव में आगे बढ़ने पर समस्या और भी गंभीर हो गई है। सितंबर 2020 में, एफबीआई की सूचना के बाद फेसबुक और ट्विटर ने रूसी प्रचार प्रयासों से जुड़े एक समाचार संगठन पीसडेटा के सोशल मीडिया खातों को निलंबित कर दिया।
दुर्भाग्य से, खातों को बंद करना एक अस्थायी और अप्रभावी समाधान है। रूसी खाते अक्सर महिलाओं के साथ आकर्षक प्रोफाइल वाले मित्र अनुरोधों का रूप ले लेते हैं जो पुरुषों को लक्षित करते हैं, या फिर नियमित पोस्ट के इतिहास वाले उपयोगकर्ता खातों को हैक कर लेते हैं। ये हैक किए गए खाते धीरे-धीरे राजनीतिक पोस्ट में बदल जाते हैं, जब तक कि वे प्रचार या साजिश सिद्धांतों से भरे नहीं हो जाते।
एक अनजान उपयोगकर्ता यह नहीं जान पाता है कि उसके मित्र का खाता खतरे में है। यदि उपयोगकर्ता साजिश सिद्धांतों के प्रति संवेदनशील है, तो वे नकली समाचार फीड आइटम में जुड़ सकते हैं, रूसी ट्रोल, जो अक्सर एक बॉट होता है, तब सामाजिक प्रमाण के रूप में पसंद या टिप्पणियों के माध्यम से अतिरिक्त सामाजिक प्रमाण प्रदान करता है।
कमजोर उपयोगकर्ता अक्सर वे होते हैं जो प्रौद्योगिकी और एआई के काम करने के तरीके को कम से कम समझते हैं। 65 से अधिक आयु वर्ग, जो मतदान के लिए सबसे अधिक संभावना रखता है, नकली समाचार फैलाने की सबसे अधिक संभावना रखता है, जैसा कि न्यूयॉर्क टाइम्स द्वारा रिपोर्ट किया गया है।
अध्ययन के अनुसार, फेसबुक उपयोगकर्ता 65 और उससे अधिक आयु वर्ग के लोगों ने 29 और उससे कम आयु वर्ग के वयस्कों की तुलना में नकली समाचार वेबसाइटों से लेख साझा किए। डिजिटल मीडिया साक्षरता की कमी इस आयु वर्ग को तथ्यों या सटीकता पर आधारित नहीं बल्कि उपयोगकर्ता जुड़ाव पर आधारित समाचार फीड के लिए तैयार नहीं करती है।
बुरे अभिनेता फेसबुक के सिफारिश इंजन का फायदा उठा रहे हैं जो हमारे संज्ञानात्मक पूर्वाग्रहों का फायदा उठाता है। ये संगठन फेसबुक के एआई के दुरुपयोग को साजिश सिद्धांतों और प्रचार को फैलाने के लिए अनुकूलित कर चुके हैं। साजिश सिद्धांत जो पहली नज़र में निर्दोष लगते हैं, अक्सर सफेद वर्चस्व, दूर-दूर के राष्ट्रवाद या क्यूएएनओएन जैसी विचित्र साजिश सिद्धांत में मजमूनी होते हैं, जिसमें ट्रम्प को दुनिया को उदार पेडोफाइल से बचाने का प्रयास करने वाला एक सिद्धांत शामिल है, जिसका वास्तविकता में कोई आधार नहीं है।
सारांश
फेसबुक明显 जानता है कि समस्या है और उन्होंने एक रणनीति की घोषणा की है जो फेसबुक के सामुदायिक मानकों का उल्लंघन करने वाली सामग्री को हटाने पर केंद्रित है। समस्या यह है कि खातों को हटाना एक अस्थायी उपाय है जो तब अप्रभावी हो जाता है जब खाते बॉट द्वारा बड़े पैमाने पर या उपयोगकर्ता खातों के mass हैकिंग द्वारा उत्पन्न किए जाते हैं। यह समस्या का समाधान नहीं करता है कि अधिकांश साझा करने वाले नियमित उपयोगकर्ता हैं जो यह नहीं जानते हैं कि वे गलत सूचना फैला रहे हैं।
चेतावनी लेबल जोड़ना केवल साजिश सिद्धांतों को मजबूत करता है कि सोशल मीडिया दिग्गज रूढ़िवादी विचारों के प्रति पक्षपाती हैं।
समाधान एक नए सिफारिश इंजन की आवश्यकता है जो केवल उपयोगकर्ता जुड़ाव को मापता है, बल्कि उपयोगकर्ता की खुशी के लिए अनुकूलित होता है जो सत्य और सुधारित स्व-जागरूकता प्रदान करता है।
इस बीच, फेसबुक को ट्विटर द्वारा राजनीतिक विज्ञापनों पर प्रतिबंध लगाने के रास्ते पर चलना चाहिए।
अंत में, एक महत्वपूर्ण प्रश्न पूछने की आवश्यकता है। यदि लोगों के पास यह विकल्प नहीं है कि वे कौन सी खबर देखते हैं, तो यह सिफारिश कब से मनोवृत्ति नियंत्रण में बदल जाती है?
सिफारिशित पढ़ाई:
रूसी एक्टिव मेजर्स अभियान और हस्तक्षेप – सेलेक्ट कमिटी ऑन इंटेलिजेंस यूनाइटेड स्टेट्स सीनेट द्वारा रिपोर्ट।
लोकतंत्र के अंत की भविष्यवाणी करने वाला चौंकाने वाला पत्र – जॉर्ज वाशिंगटन विश्वविद्यालय के इतिहास न्यूज नेटवर्क के संस्थापक रिक शेंकमैन द्वारा।
बुजुर्ग लोग फेसबुक पर नकली समाचार साझा करते हैं – न्यूयॉर्क टाइम्स द्वारा।












