Connect with us

نموذج إحصائي يساعد في الكشف عن المعلومات الخاطئة على وسائل التواصل الاجتماعي

الذكاء الاصطناعي

نموذج إحصائي يساعد في الكشف عن المعلومات الخاطئة على وسائل التواصل الاجتماعي

mm

أستاذ الرياضيات في الجامعة الأمريكية، إلى جانب فريق من المتعاونين، طور نموذجًا إحصائيًا يمكنه الكشف عن المعلومات الخاطئة في منشورات وسائل التواصل الاجتماعي.

تُستخدم تعلم الآلة بشكل متزايد لوقف انتشار المعلومات الخاطئة، ولكن لا تزال هناك عقبة كبيرة تتعلق بمشكلة الصندوق الأسود التي تحدث. وهذا يشير إلى عندما لا يفهم الباحثون كيف يصل الحاسوب إلى نفس القرار مثل المدربين البشر.

الكشف عن المعلومات الخاطئة باستخدام النماذج الإحصائية

استخدم زويس بوكوفالاس، أستاذ مساعد في قسم الرياضيات والإحصاء في الجامعة الأمريكية، مجموعة بيانات تويتر تحتوي على تغريدات خاطئة حول كوفيد-19 لتوضيح كيف يمكن للنماذج الإحصائية الكشف عن المعلومات الخاطئة على وسائل التواصل الاجتماعي خلال أحداث كبيرة مثل الجائحة أو الكارثة.

أثبت بوكوفالاس وزميلاه، بمن فيهم طالبة الجامعة الأمريكية كيتلين موروني وأستاذ علوم الحاسوب ناتالي جابكوفيتش، كيف يتماشى قرارات النموذج مع قرارات البشر في البحث المنشور حديثًا.

“نريد أن نعرف ما يفكر فيه الحاسوب عندما يتخذ قرارات، وكيف و لماذا يتفق مع البشر الذين دربوه”، قال بوكوفالاس. “لا نريد حظر حساب شخص على وسائل التواصل الاجتماعي لأن النموذج يتخذ قرارًا متحيزًا”.

الطريقة المستخدمة من قبل الفريق هي نوع من تعلم الآلة الذي يعتمد على الإحصاء. النماذج الإحصائية فعالة وتوفر طريقة أخرى لمكافحة المعلومات الخاطئة.

حققت النموذج أداء تنبؤ عالي وصنفت مجموعة اختبار من 112 تغريدات حقيقية ومعلومات خاطئة مع دقة تقارب 90٪.

“ما هو مهم في هذا الاكتشاف هو أن نموذجنا حقق دقة مع تقديم شفافية حول كيفية الكشف عن التغريدات التي كانت معلومات خاطئة”، واصل بوكوفالاس. “لا يمكن للأساليب العميقة أن تحقق هذا النوع من الدقة مع الشفافية”.

تدريب النموذج وتهيئته

أعد الباحثون النموذج قبل اختباره على مجموعة بيانات منذ أن يمكن للمعلومات المقدمة من البشر أن تُدخل تحيزات وصندوقًا أسود.

صُنّفت التغريدات من قبل الباحثين على أنها معلومات خاطئة أو حقيقية بناءً على مجموعة من القواعد المحددة حول اللغة المستخدمة في المعلومات الخاطئة. كما أ考虑 الفريق الدقائق في اللغة البشرية والسمات اللغوية المرتبطة بالمعلومات الخاطئة.

قبل تدريب النموذج، حدد أستاذ اللغة الاجتماعية كريستين مالينسون من جامعة ميريلاند بالتيمور التغريدات لأسلوب الكتابة المرتبط بالمعلومات الخاطئة والتحيز والمصادر الأقل موثوقية في وسائل الإعلام الإخبارية.

“مرة واحدة نضيف هذه الإدخالات إلى النموذج، فهو يحاول فهم العوامل الأساسية التي تؤدي إلى فصل المعلومات الجيدة والسيئة”، قال جابكوفيتش. “إنه يتعلم السياق وكيفية تفاعل الكلمات”.

سيبحث الباحثون الآن عن تحسين واجهة المستخدم للنموذج، بالإضافة إلى قدرته على الكشف عن المعلومات الخاطئة في منشورات وسائل التواصل الاجتماعي التي تحتوي على صور أو وسائط متعددة أخرى. سيتعين على النموذج الإحصائي أن يتعلم كيفية تفاعل مجموعة متنوعة من العناصر المختلفة لإنشاء معلومات خاطئة.

كلا بوكوفالاس وجابكوفيتش يقولان إن الذكاء البشري وآداب الأخبار هي المفتاح لوقف انتشار المعلومات الخاطئة.

“من خلال عملنا، نصمم أدوات قائمة على تعلم الآلة لإعلام وتربية العامة من أجل القضاء على المعلومات الخاطئة، ولكننا نؤمن بصدق أن البشر يجب أن يلعبوا دورًا نشطًا في عدم نشر المعلومات الخاطئة في المقام الأول”، قال بوكوفالاس.

Alex McFarland هو صحفي وكاتب في مجال الذكاء الاصطناعي يستكشف أحدث التطورات في الذكاء الاصطناعي. وقد تعاون مع العديد من الشركات الناشئة في مجال الذكاء الاصطناعي والمنشورات في جميع أنحاء العالم.