الذكاء الاصطناعي
دراسة جديدة تحاول تحسين خوارزميات كشف خطاب الكراهية

تواجه شركات وسائل الإعلام الاجتماعية، ولا سيما تويتر، انتقادات منذ فترة طويلة لطريقة وضع علامات على الخطاب واختيار الحسابات التي سيتم حظرها. والproblem الأساسي几乎 دائمًا يتعلق بالخوارزميات التي تستخدمها لمراقبة المنشورات عبر الإنترنت. ونظم الذكاء الاصطناعي بعيدة عن الكمال عندما يتعلق الأمر بهذه المهمة، ولكن هناك عملًا يتم إجراؤه باستمرار لتحسينها.
يتم تضمين ذلك العمل في دراسة جديدة صدرت من جامعة جنوب كاليفورنيا التي تحاول تقليل بعض الأخطاء التي قد تؤدي إلى تحيز عرقي.
فشل في التعرف على السياق
من بين القضايا التي لا تلقى انتباهًا كبيرًا هي أن الخوارزميات التي تهدف إلى وقف انتشار خطاب الكراهية في الواقع تعزز التحيز العرقي. وهذا يحدث عندما تفشل الخوارزميات في التعرف على السياق وتنتهي بتعليم أو حظر التغريدات من قبل مجموعات الأقليات.
أعظم مشكلة في الخوارزميات فيما يتعلق بالسياق هي أنها حساسة بشكل مفرط لمصطلحات تحديد المجموعة مثل “الأسود” و “المثليين” و “المتحولين جنسيا”. تعتبر الخوارزميات هذه مصنفات خطاب الكراهية، ولكنها غالبًا ما تستخدم بواسطة أعضاء هذه المجموعات والسياق مهم.
في محاولة ل解决 مشكلة عمى السياق، أنشأ الباحثون مصنفًا أكثر حساسية للسياق لخطاب الكراهية. والخوارزمية الجديدة أقل عرضة لتحديد علامة خاطئة على المنشور على أنه خطاب كراهية.
الخوارزمية
طور الباحثون الخوارزميات الجديدة مع مراعاة عاملين جديدين: السياق فيما يتعلق بمحددات المجموعة، ومدى وجود ميزات أخرى لخطاب الكراهية في المنشور، مثل لغة الإنسان.
بريندان كينيدي هو طالب دكتوراه في علوم الحاسوب وشارك في تأليف الدراسة، التي نُشرت في 6 يوليو في ACL 2020.
قال كينيدي: “نريد أن نقرب كشف خطاب الكراهية من أن يكون جاهزًا للتطبيق في العالم الحقيقي”.
“غالبًا ما “يتحطم” أو يولد تنبؤات سيئة، عندما يتم تقديمها إلى بيانات العالم الحقيقي، مثل وسائل الإعلام الاجتماعية أو بيانات النص الأخرى عبر الإنترنت، لأنها متحيزة من قبل البيانات التي تم تدريبها على ربط مظهر مصطلحات تحديد المجموعة الاجتماعية بخطاب الكراهية”.
السبب في أن الخوارزميات غالبًا ما تكون غير دقيقة هو أنها تم تدريبها على مجموعات بيانات غير متوازنة مع معدلات عالية جدًا لخطاب الكراهية. وبسبب ذلك، تفشل الخوارزميات في تعلم كيفية التعامل مع ما تبدو عليه وسائل الإعلام الاجتماعية في العالم الحقيقي.
الأستاذ رين خبير في معالجة اللغة الطبيعية.
قال رين: “من المهم أن لا تتجاهل النماذج محددات المجموعة، ولكن مطابقةها مع السياق الصحيح”.
“إذا قمت بتعليم نموذج من مجموعة بيانات غير متوازنة، يبدأ النموذج في ملاحظة أنماط غريبة و حظر المستخدمين بشكل غير مناسب”.
لاختبار الخوارزمية، استخدم الباحثون عينة عشوائية من النص من موقعين للوسائط الاجتماعية التي لديها معدل عالٍ لخطاب الكراهية. تم وضع علامة على النص لأول مرة من قبل البشر على أنه متحيز أو إنسان. ثم تم قياس نموذج الحالة الفنية مقابل نموذج الباحثين لتحديد علامة خاطئة على خطاب غير كراهية، من خلال استخدام 12,500 مقال من صحيفة نيويورك تايمز بدون خطاب كراهية. بينما تمكنت نماذج الحالة الفنية من تحقيق دقة 77٪ في تحديد خطاب الكراهية مقابل خطاب غير الكراهية، كان نموذج الباحثين أعلى عند 90٪.
قال كينيدي: “هذا العمل بحد ذاته لا يجعل كشف خطاب الكراهية مثاليًا، هذا مشروع ضخم يعمل عليه العديد، ولكنها تقدم تقدمًا تراكميًا”.
“بالإضافة إلى منع منشورات وسائل الإعلام الاجتماعية من قبل أعضاء المجموعات المحمية من أن يتم حظرها بشكل غير مناسب، نأمل أن يساهم عملنا في ضمان أن كشف خطاب الكراهية لا يلحق ضررًا غير ضروري من خلال تعزيز ارتباطات زائفة من التحيز والإنسان مع المجموعات الاجتماعية”.










