قادة الفكر
كيف ينتشر فيسبوك للمعلومات الخاطئة ويهدد الديمقراطية

يقول دان تونكلانج الذي أشرف على أبحاث الذكاء الاصطناعي في لينكد إن: “في اللحظة التي تكتسب فيها التوصيات القدرة على التأثير في القرارات، تصبح هدفًا للمخادعين والمخادعين وأشخاصًا آخرين ذوي دوافع غير نبلية”.
هذا هو المأزق الذي تعاني منه شركات وسائل التواصل الاجتماعي مثل فيسبوك. يستخدم فيسبوك التعليقات الضمنية لتتبع النقرات والمشاهدات وسلوكيات المستخدمين القابلة للقياس الأخرى. يتم استخدام هذا لتصميم ما يُعرف باسم “محرك التوصية”، وهو نظام ذكاء اصطناعي له السلطة النهائية في تحديد من يرى ماذا ومتى.
لقد قام فيسبوك بتحسين محرك التوصيات لتحقيق أقصى استفادة من المستخدم، ويتم قياس ذلك من خلال مقدار الوقت الذي يقضيه المستخدم ملتصقًا bằng منصة فيسبوك. يأتي تحقيق أقصى استفادة من الوقت في الأولوية على أي متغير آخر، بما في ذلك جودة أو دقة ما يتم التوصية به.
تم تصميم النظام لتكافئ العناوين السنسناشيونية التي تثير المستخدمين من خلال استغلال الانحياز المعرفي، حتى لو كانت تلك العناوين مكتوبة من قبل الدعاية الروسية بهدف تقسيم المجتمع أو التأثير على الانتخابات السياسية.
كيف يستخدم فيسبوك الذكاء الاصطناعي
هناك قلة في الوعي حول كيفية استخدام فيسبوك للذكاء الاصطناعي لتحديد ما يرى المستخدمون وتفاعلهم معه. يجب أن نفهم أولا ما هو الانحياز التأكيدي. يصف psychology today هذا على النحو التالي:
الانحياز التأكيدي هو النزعة إلى البحث عن تفسير وتفضيل وتذكر المعلومات بطريقة تؤكد أو تدعم المعتقدات أو القيم السابقة.
يفهم فيسبوك أن المستخدمين أكثر احتمالا للنقر على الأخبار التي تغذي الانحياز التأكيدي البشري. هذا يضع سابقة خطيرة لنشر نظريات المؤامرة وإنشاء غرف回音 حيث يتم تغذية المستخدمين حصريًا بما يريدون رؤيته بغض النظر عن الدقة أو التأثير المجتمعي لما يتم رؤيته.
دراسة أجريت بواسطة ماساتشوستس تمكنت من إثبات أن الأخبار الكاذبة على تويتر تنتشر 6 مرات أسرع من الأخبار الحقيقية.
هذا يعني أن تويتر وفيسبوك يمكن أن يكونا مسلحين. بينما يسمح تويتر لأي شخص بمتابعة تغذيات ذات وجهات نظر ضيقة أو متحيزة، يأخذ فيسبوك خطوة إلى الأمام. لا يملك مستخدم فيسبوك حاليًا أي وسيلة للسيطرة على ما يرى أو قياسه، يتم التحكم في ذلك بالكامل بواسطة محرك التوصية وفيسبوك وقياسه لاستفادة المستخدم وضبطه لنفس استفادة المستخدم.
يحاول فيسبوك تشكيل ورصد رغبات مستخدميه. يقدر فيسبوك إلى أي درجة سيحب أو يكره المستخدم عنصرًا إخباريًا لم يختبره المستخدم بعد. من أجل تجنب فقدان استفادة المستخدم، يختار فيسبوك تجاوز عناصر الأخبار التي قد تقلل من مستوى الاستفادة، وبدلاً من ذلك يختار إثارة المستخدم بتغذية عناصر إخبارية تغذي الانحياز التأكيدي، مما يضمن المزيد من النقرات والتعليقات والإعجابات والمشاركات.
كما يستخدم فيسبوك الترشيح التعاوني التلقائي للإجراءات والتوجهات التاريخية للمستخدمين لتطابق المشاركين (الأصدقاء) تلقائيًا مع آراء مماثلة. يستخدم فيسبوك دالة للفائدة التي تتنبأ وتصنف رغباتك لأشياء تريد رؤيتها تلقائيًا ورياضيًا.
هذا يسبب للمستخدمين أن يسقطوا في حفرة، فهم محاصرون في الأخبار الكاذبة، يتم تغذيتهم بمحتوى يؤكد انحيازهم. المحتوى المعروض مصمم بشكل جوهري بهدف التأثير على ما تنقر عليه. بعد كل شيء، إذا كنت تعتقد أن المؤامرة التي تحاول أن تزرع شائبة على بيل غيتس باستخدام اللقاحات هي حقيقية، فلماذا يجب على فيسبوك أن يقدّم لك أدلة مخالفة قد تسبب في انسحابك من المنصة؟ إذا كنت تدعم مرشحًا سياسيًا معينًا، فلماذا يجب على فيسبوك أن يقدم لك أخبارًا قد تتعارض مع وجهات نظرك الإيجابية حول نفس المرشح؟
وكما لو أن هذا لم يكن كافيا، فيسبوك يشارك أيضًا ما يُعرف بـ “البرهان الاجتماعي”. البرهان الاجتماعي هو概念 أن الناس سيتابعون أفعال الجماهير. الفكرة هي أن منذ أن يتصرف الكثير من الناس بطريقة معينة، يجب أن تكون السلوك الصحيح.
يقدم فيسبوك هذا البرهان الاجتماعي في سياق الإعجابات أو التعليقات أو المشاركات. منذ أن يرى فقط بعض الأصدقاء عنصر التغذية الإخبارية (ما لم يبحثوا عن تغذية المستخدم بشكل محدد)، فإن البرهان الاجتماعي يخدم فقط لتعزيز الانحياز التأكيدي.
فيسبوك يستخدم أيضًا فقاعات المرشح لتحديد التعرض لوجهات نظر متناقضة أو متعارضة أو محددة.
إعلانات فيسبوك
مستخدمو فيسبوك غير المحتملين قد يكونون ينقرون على الإعلانات دون أن يكونوا على دراية بأنهم يتم تقديم إعلانات لهم. السبب في ذلك بسيط، إذا كان هناك إعلان، فسيرى فقط الشخص الأول الذي يتم تقديم الإعلان له إعلان الإعلان. إذا شارك ذلك المستخدم الإعلان، يرى كل شخص على قائمة أصدقائه فقط “المشاركة” كعنصر تغذية إخبارية لأن فيسبوك يقطع عمدًا إعلان الإعلان.
على الفور، يخفض المستخدمون حرسهم، họ غير قادرين على التمييز بين ما هو إعلان وما سيكون قد ظهر بشكل طبيعي على تغذتهم الإخبارية.
مشاركات فيسبوك
للأسف، الأمور تزداد سوءًا. إذا كان مستخدم لديه 1000 صديق يشاركون المحتوى في نفس الوقت، سوف يفضل محرك التوصية المحتوى من الأقليّة الذين يشاركون نفس الآراء، حتى لو كانت هذه في كثير من الأحيان تتكون من نظريات مؤامرة غير مبررة. سيكون المستخدم تحت وهم أن هذه عناصر التغذية الإخبارية يتم رؤيتها من قبل الجميع. من خلال التفاعل مع هذه التغذية الإخبارية، هذه المستخدمين يضيفون إلى البرهان الاجتماعي لبعضهم البعض.
إذا حاول مستخدم إضاءة مستخدم آخر حول عنصر إخبارية خادع أو كاذب، فإن فعل التعليق أو التفاعل مع التغذية الإخبارية يزيد فقط من وقت استفادة المستخدم الأصلي. هذا الحلقة المرتدة تسبب فيسبوك في تعزيز المستخدم بتغذية أخبار كاذبة إضافية.
هذا يسبب غرفة 回音، فقاعة مرشح حيث يتم تدريب المستخدم على الاعتقاد فقط في ما يرى. الحقيقة هي مجرد وهم.
جديّة القضية
أكثر من 10 ملايين شخص تفاعلوا مع تغذية إخبارية تدعي أن البابا فرانسيس أعلن دعمه لانتخابات ترامب في عام 2016. لم يكن هناك أي دليل على ذلك، كان فقط قصة إخبارية كاذبة جاءت من روسيا، ومع ذلك كانت هذه هي القصة الإخبارية الأكثر مشاركة على فيسبوك في الأشهر الثلاثة التي سبقت الانتخابات.
تم إنشاء عنصر التغذية الإخبارية بواسطة مزرعة الدعاية الروسية التي تدعى “وكالة الأبحاث على الإنترنت”. كانت هذه المنظمة نفسها مسؤولة عن تعزيز ومشاركة مقالات تحريضية على تويتر وفيسبوك لتشويه حركة حياة السود وتصوير الأخبار الكاذبة لنشر ادعاءات كاذبة حول السياسيين الأمريكيين.
أصدر لجنة المخابرات المختارة تقريرًا يبلغ طوله 85 صفحة يفصّل حملات روسيا الفعّالة وعمليات التأثير، معظمها يتعلق بنشر أخبار كاذبة و-propaganda التي كان هدفها الوحيد هو التأثير على انتخابات الولايات المتحدة عام 2016.
في عام 2020، بعد الانتخابات، ازدادت المشكلة فقط. في سبتمبر 2020، بعد تلميح من مكتب التحقيقات الفيدرالي، قام فيسبوك وتويتر بإلغاء حسابات وسائل الإعلام لحساب يسمى بياس داتا، والذي يرتبط بجهود الدعاية الحكومية الروسية.
للأسف، إغلاق الحسابات هو حل مؤقت غير فعال. غالبًا ما تأخذ الحسابات الروسية شكل طلبات صداقة، غالبًا ما تكون من نساء مع ملفات تعريف جذابة يرمزن الرجال، أو حسابات مستخدمين محجوزة مع تاريخ من المنشورات العادية. تتغير هذه الحسابات المحجوزة ببطء إلى منشورات سياسية أكثر، حتى يتمحور حول الدعاية أو نظريات المؤامرة.
مستخدم غير متوقع قد يكون غير على دراية بأن حساب صديق تم اختراقه. إذا كان المستخدم معرضًا لنظريات المؤامرة، قد يتفاعل مع عنصر التغذية الإخبارية الكاذبة، ثم يقدم البوت الروسي برهانًا اجتماعيًا من خلال الإعجابات أو التعليقات.
المستخدمون الأقل قدرة على التأثر غالبًا ما يكونون أقل فهمًا لتقنية الذكاء الاصطناعي. السكان الذين تزيد أعمارهم على 65 عامًا، وهم السكان الأكثر احتمالا للتصويت، هم أيضًا الأكثر احتمالا لنشر الأخبار الكاذبة، كما أفادت نيويورك تايمز.
وفقًا للدراسة، نشر مستخدمو فيسبوك الذين تزيد أعمارهم على 65 عامًا سبع مرات أكثر من المقالات من مواقع الأخبار الكاذبة مقارنة بالبالغين الذين تقل أعمارهم عن 29 عامًا. عدم وجود أدب إعلامي رقمي يترك هذه الفئة العمرية غير مستعدة لمشهد إخبارية لا يعتمد على الحقائق أو الدقة، بل حصريًا على استفادة المستخدم.
الممثلون السيئون يأخذون ميزة من محرك التوصية لفيسبوك الذي يستغل انحيازاتنا المعرفية ضدها. هذه المنظمات قامت بتحسين إساءة استخدام الذكاء الاصطناعي لفيسبوك لنشر نظريات المؤامرة والدعاية. نظريات المؤامرة التي قد تبدو بريئة في البداية، غالبًا ما تستخدم كأنابيب للاشتراك في العليا اليمين، أو قانون نظرية مؤامرة غريبة تتضمن محاولة ترامب لإنقاذ العالم من الليبراليين المخادعين، نظرية مؤامرة لا أساس لها من الصحة.
ملخص
من الواضح أن فيسبوك على دراية بأن هناك مشكلة وقد أعلن علنًا استراتيجية تركز على إزالة المحتوى الذي ينتهك معايير مجتمع فيسبوك. المشكلة هي أن حذف الحسابات هو حل مؤقت غير فعال عندما يتم إنشاء الحسابات بالجملة بواسطة البوتات، أو اختراق حسابات المستخدمين بشكل جماعي. كما أنه لا يحل المشكلة التي يتم نشر معظمها من قبل مستخدمين عاديين غير مدركين لنشر معلومات خاطئة.
إضافة علامات تحذيرية تخدم فقط لتعزيز نظريات المؤامرة التي تقول إن شركات وسائل التواصل الاجتماعي متحيزة ضد المحافظين، وهم الأكثر عرضة للأخبار الكاذبة.
الحل يجب أن يكون محرك توصية جديد ي đo ليس فقط استفادة المستخدم، بل يتم ضبطه لتحقيق سعادة المستخدم من خلال تقديم الحقيقة وتعزيز الوعي الذاتي.
في غضون ذلك، يجب على فيسبوك اتباع المسار الذي اتبعه تويتر لحظر الإعلانات السياسية.
أخيرًا، يجب أن يطرح سؤال هام. إذا لم يكن الناس قادرين على الاختيار بشأن الأخبار التي يرونها، فمتى يتوقف عن كونه توصية ومتى يصبح التحكم في العقل؟
قراءة مقترحة:
حملات روسيا الفعّالة والتدخلات – تقرير من لجنة المخابرات المختارة مجلس الشيوخ الأمريكي.
الورقة الصدمية التي تتنبأ بنهاية الديمقراطية – من قبل ريك شينكمان، مؤسس شبكة الأخبار التاريخية بجامعة جورج واشنطن.
الأشخاص الأكبر سنا يشاركون الأخبار الكاذبة على فيسبوك أكثر – من قبل نيويورك تايمز












