الذكاء الاصطناعي
يمكن لنموذج الذكاء الاصطناعي تحديد منشري المعلومات الخاطئة قبل أن يتصرفوا

أنشأ باحثون من جامعة شيفيلد نموذجًا للذكاء الاصطناعي يمكنه потенسيально تحديد مستخدمي تويتر الذين سيقومون بنشر معلومات خاطئة قبل أن يفعلوا ذلك. إذا أثبت النموذج موثوقيته ، يمكن استخدامه لتكميل الطرق الحالية لمكافحة المعلومات الخاطئة على وسائل التواصل الاجتماعي.
وفقًا لـ TechXplore ، قاد الدراسة باحثون من قسم علوم الحاسوب بجامعة شيفيلد ، بمن فيهم الدكتور نيكوس أليتراس وييدا مو. ونشرت الدراسة في مجلة PeerJ وتفصيل الطرق المستخدمة للتنبؤ بمدى احتمال أن ينشر مستخدمو وسائل التواصل الاجتماعي معلومات خاطئة من مصادر الأخبار غير الموثوقة.
جمعت فريق البحث أكثر من مليون تويت من أكثر من 6000 مستخدم لتويتر ، جميعها متاحة للجمهور. طبق الفريق تقنيات معالجة اللغة الطبيعية لتحضير البيانات لتدريب نموذج الذكاء الاصطناعي. كان الذكاء الاصطناعي نموذجًا للتصنيف الثنائي ، ووضع علامات على المستخدمين على أنهم محتملون لنشر المعلومات من مصادر غير موثوقة أو غير محتملين لفعل ذلك. بعد تدريب النموذج على البيانات ، تمكن من تحقيق دقة تصنيف تقارب 79.7٪.
عند تحليل نتائج أداء النموذج ، وجد الباحثون أن المستخدمين الذين يستخدمون لغة غير لائقة بشكل كبير ويطرون دائمًا حول الدين والسياسة هم أكثر احتمالا لنشر المعلومات من مصادر غير موثوقة. على وجه الخصوص ، كان هناك استخدام كبير لكلمات مثل “ليبرالي” و “إعلام” و “حكومة” و “إسرائيل” و “إسلام”. في حين أن المستخدمين الذين ينشرون المعلومات من مصادر موثوقة يميلون إلى استخدام كلمات مثل “سأفعل” و “سأذهب” و “أريد” و “مزاج” و “ممتع” و “عيد الميلاد”. وراء ذلك ، كانوا يشاركون عادة قصصًا عن حياتهم الشخصية ، مثل التفاعلات مع الأصدقاء أو مشاعرهم أو معلومات حول هواياتهم.
يمكن أن تساعد نتائج الدراسة شركات وسائل التواصل الاجتماعي مثل فيسبوك وريديت وتويتر على تصميم طرق جديدة لمكافحة انتشار المعلومات الخاطئة على الإنترنت. يمكن أن تساعد الدراسة أيضًا علماء النفس والاجتماع على فهم السلوك الذي يؤدي إلى انتشار المعلومات الخاطئة على نطاق واسع في الشبكات الاجتماعية.
كماexplained أليتراس وفقًا لـ TechXplore ، تحولت وسائل التواصل الاجتماعي إلى واحدة من الطرق السائدة التي يحصل الناس من خلالها على الأخبار. يحصل ملايين المستخدمين حول العالم على قصص الأخبار من خلال فيسبوك وتويتر كل يوم ، ولكن هذه المنصات أصبحت أيضًا أدوات لنشر المعلومات الخاطئة في المجتمع. وشرح أليتراس أن تحديد الاتجاهات في سلوك المستخدمين يمكن أن يساعد في مكافحة المعلومات الخاطئة. كماexplained أليتراس أن “الارتباط بين استخدام اللغة غير اللائقة وانتشار المحتوى غير الموثوق يمكن أن يعزى إلى العدوانية السياسية الكبيرة على الإنترنت”.
وفقًا لمو ، يمكن أن تساعد دراسة سلوك المستخدمين الذين يشاركون المعلومات غير الموثوقة منصات وسائل التواصل الاجتماعي من خلال تكميل الطرق الحالية للتحقق من الحقائق ونمذجة المعلومات الخاطئة على مستوى المستخدم. كما قال مو عبر TechXplore:
“دراسة وتحليل سلوك المستخدمين الذين يشاركون المحتوى من مصادر الأخبار غير الموثوقة يمكن أن تساعد منصات وسائل التواصل الاجتماعي على منع انتشار الأخبار الكاذبة على مستوى المستخدم ، وتكميل الطرق الحالية للتحقق من الحقائق التي تعمل على مستوى المنشور أو مصدر الأخبار”.
يمكن أن تكون الأبحاث التي أجريها أليتراس ومو حالة لاستخدام الذكاء الاصطناعي لمكافحة المعلومات الخاطئة التي تتم إنشاؤها بواسطة الذكاء الاصطناعي. شهد الأشهر القليلة الماضية زيادة في المعلومات الخاطئة حول السياسة المحلية والوطنية ، معظمها من المحتوى الذي تم إنشاؤه ونشره بواسطة خوارزميات الذكاء الاصطناعي. تم استخدام الشبكات العصبية العميقة لبناء صور فوتوغرافية واقعية ومحفظة لمحاكاة الحسابات التي تعمل كمنشري معلومات خاطئة. يمكن أن تساعد أبحاث أليتراس ومو شركات وسائل التواصل الاجتماعي على تحديد الحسابات التي هي محاكاة ، حسابات بوت تم إنشاؤها لغرض نشر الدعاية والمعلومات الخاطئة الضارة.
