Connect with us

يمكن للاستخبارات الاصطناعية مكافحة المعلومات الخاطئة والتحيز في الأخبار

الأخلاقيات

يمكن للاستخبارات الاصطناعية مكافحة المعلومات الخاطئة والتحيز في الأخبار

mm

أصبحت المعلومات الخاطئة والتحيز في الأخبار واحدة من أكبر التحديات التي واجهت المجتمع في السنوات الأخيرة. أمور مثل عمليات المعلومات والصور المزيفة والتأثير المالي واستغلال التوترات الاجتماعية هي أدوات جديدة تستخدمها الأفراد والجهات الفاعلة الحكومية في جميع أنحاء العالم.

المعلومات الخاطئة هي مصطلح عام للمعلومات الكاذبة ، وهي تلعب دورًا رئيسيًا في التلاعب بالرأي العام. وفي الوقت نفسه ، يتم استخدامها كهجوم ضد القادة السياسيين وتتفاقم الانقسامات بين الجماعات في بلدان مختلفة. أكثر من أي وقت مضى ، تصل المعلومات الخاطئة إلى مقاعد الانتخابات ، وأصبحت فعالة بشكل لا يصدق.

التحيز ، الذي يختلف قليلاً عن المعلومات الخاطئة ، هو معلومات خادعة أو متحيزة. يمكن أن يتضمن روايات ووقائع منحرفة. وبعبارة أخرى ، إنه دعاية.

أفاد تقرير صدر في عام 2019 من قبل باحثين في جامعة أكسفورد عن حملات منسقة من التحيز في 70 دولة مختلفة ، بما في ذلك روسيا والصين وفيتنام وغواتيمالا.

أدت الاقتصاد الرقمي إلى زيادة في المعلومات الخاطئة والتحيز في الأخبار ، مع تقنيات الاستخبارات الاصطناعية ومنصات وسائل الإعلام الاجتماعية التي أصبحت طرقًا لدفعها إلى الجماهير.

لقد رأينا العديد من الأمثلة على ذلك. على سبيل المثال ، كانت الانتخابات الرئاسية الأمريكية السابقة مليئة بالمعلومات الخاطئة والتحيز ، وهذا من المؤكد أن يستمر في المستقبل. كما كانت الأسواق المالية خاضعة للاستغلال على المدى القصير من خلال المعلومات الخاطئة والتحيز ، وتتفاقم الشؤون الخارجية نتيجة لاستخدامها. يتم إحداث التوترات الاجتماعية بسبب المعلومات الكاذبة ضد أنصار ومعارضي القضايا المحددة ، والأخبار الكاذبة منتشرة في معظم الدول.

أصبحنا معرضين بشكل كبير للمعلومات الخاطئة والتحيز بسبب اعتمادنا على وسائل الإعلام الاجتماعية والخوارزميات ، وأصبح من السهل التلاعب بمجموعات كبيرة من الناس.

وفقًا لمقال بعنوان التحيزات تجعل الناس عرضة للمعلومات الخاطئة التي تنشرها وسائل الإعلام الاجتماعية ، المنشور بواسطة The Conversation ، وهي شبكة من وسائل الإعلام غير الهادفة للربح ، هناك ثلاثة أنواع من التحيزات تجعل نظام وسائل الإعلام الاجتماعية عرضة للمعلومات الخاطئة المتعمدة والغير متعمدة. من المهم أن ندرك أن معظم أخبارنا الآن تأتي من وسائل الإعلام الاجتماعية.

التحيزات الثلاثة هي:

  1. تحيز في الدماغ: “ينشأ التحيز المعرفي في الطريقة التي يعالج بها الدماغ المعلومات التي يتعامل معها كل شخص يوميًا.”
  2. تحيز في المجتمع: “عندما يتواصل الناس مباشرة مع زملائهم ، فإن التحيزات الاجتماعية التي توجيه اختيارهم للأصدقاء تؤثر على المعلومات التي يرونها.
  3. تحيز في الآلة: “تظهر المجموعة الثالثة من التحيزات直接 من الخوارزميات المستخدمة لتحديد ما يراه الناس عبر الإنترنت. تستخدم منصات وسائل الإعلام الاجتماعية ومحركات البحث الخوارزميات.

لقد خلق هذا الجمع من التحيزات البيئة المثالية للممثلين السيئين لاستخدام منصات الأخبار الحالية كوسيلة لنشر المعلومات الخاطئة. ولكن من المهم أن ندرك أن التحيز موجود أيضًا خارج هذا النطاق. تتعرّض التقارير الإخبارية العادية والمقالات لخطر التحيز بسبب ميول الكاتب أو النشر.

حلول الاستخبارات الاصطناعية للمعلومات الخاطئة والتحيز

أدت زيادة الاستخبارات الاصطناعية إلى توفير أدوات جديدة ومبتكرة يمكن استخدامها لمكافحة المعلومات الخاطئة والتحيز في الأخبار.

على سبيل المثال ، عندما يتم تصميمها بشكل صحيح ، يمكن للاستخبارات الاصطناعية أن تكتشف وتزيل المعلومات الخاطئة والمحتوى المشكلة الأخرى عبر الإنترنت. يتم استخدامها بالفعل لتحديد البوتات المزيفة من قبل شركات مثل Google و Twitter و Facebook. والبوتات المزيفة غالبًا ما تستخدم لنشر المعلومات الخاطئة والأخبار المعتدلة.

يجب استكشاف إطارات الاستخبارات الاصطناعية الجديدة لمكافحة هذه المشكلة ، ويجب تحسين الإطارات الحالية لأن العديد منها أثبت أنه مشكلة. تزداد هذه المشاكل خطورة عندما تظهر النزاعات. على سبيل المثال ، تؤدي النزاعات العسكرية ، مثل النزاع الحالي بين روسيا وأوكرانيا ، إلى انتشار المعلومات الخاطئة بسرعة فائقة.

هناك أدوات مدعومة بالاستخبارات الاصطناعية قادمة في الطريق. على سبيل المثال ، أعلنت NT CONNECT ، وهي مطور تكنولوجي دولي ، مؤخرًا عن إطلاق تطبيقها لمجمع الأخبار ، NOOZ.AI. يهدف محرك تحليل اللغة المدعوم بالاستخبارات الاصطناعية إلى جعل التحيز المتطرف في وسائل الإعلام الإخبارية أكثر شفافية. يحاول أن يصل إلى ذلك من خلال إبقاء القراء على دراية بتأثير وسائل الإعلام الإخبارية قبل قراءة المقال.

“تميل الكتّاب أو الصحفيون إلى الميل نحو تحيز معين – غالبًا بدون معرفة القارئ” ، كما يقول بيان الصحافة للشركة. “من خلال معرفة التحيز التاريخي للكاتب ومصادر الأخبار ، يمكن للمستهلكين فحص المقال بعقل أكثر موضوعية ومقاومة التلاعب في التفكير بطريقة معينة حول أي موضوع معين.”

أداة NOOZ.AI مبنية على أربعة ركائز رئيسية:

  • تحليل الرأي: يساعد القراء على تحديد وجود المشاعر الشخصية أو الآراء أو المعتقدات أو الأحكام في كتابة الصحفي.
  • تحليل المشاعر: تستخدم الأداة تحليل المشاعر لمساعدة القراء على تقدير دعم الكاتب أو معارضته للمحتوى الإخباري العام أو موضوع معين.
  • تحليل الدعاية: يمكنها اكتشاف المعلومات الخاطئة المحتملة عن طريق تحديد استخدام ما يصل إلى 18 تقنية إقناع محتملة.
  • تحليل المراجعة: يمكن للقراء التحقيق في تطور قصة إخبارية وتلاعبها بالرأي والمشاعر مع مرور الوقت.

توفر التطبيق درجات لكل مقال ، مع درجات الرأي تتراوح من 0 إلى 100 ودرجات المشاعر تتراوح من -100 إلى 100. كما تتبع جميع التعديلات النصية لكل مراجعة وتمنح القراء القدرة على مقارنة الإصدارات المختلفة.

وفقًا لـ Garry Paxinos ، كبير مسؤولي التكنولوجيا في NT CONNECT:

“التقارير المعتدلة هي قلق كبير في المجتمع الحالي. المعلومات الخاطئة هي كلمة شائعة تستخدم بشكل خاطئ. ولكن الحقيقة هي أن اللغة نفسها يمكن استخدامها لمناورة واقناع القارئ العادي. من خلال تحليل اللغة بشكل موضوعي ، نتجنب التحيز الموضوعي الموجود في النهج الأخرى. بدلاً من وضع علامة موضوعية على المعلومات الخاطئة ، نهجنا هو إظهار كيف يمكن للمرء أن يتم التلاعب به عن طريق العناوين المثيرة ، وتاريخ المراجعة ، ونص المقالات.”

Alex McFarland هو صحفي وكاتب في مجال الذكاء الاصطناعي يستكشف أحدث التطورات في الذكاء الاصطناعي. وقد تعاون مع العديد من الشركات الناشئة في مجال الذكاء الاصطناعي والمنشورات في جميع أنحاء العالم.