الذكاء الاصطناعي
كفاح منع الذكاء الاصطناعي من الغش في الاختبارات

تقدم نتائج بحثية جديدة من جامعة صينية رؤية حول سبب تميل نماذج معالجة اللغة الطبيعية التوليدية مثل GPT-3 إلى “الغش” عند سؤالها سؤالاً صعباً، وإنتاج إجابات قد تكون صحيحة من الناحية الفنية، ولكن بدون أي فهم حقيقي لماذا الإجابة صحيحة؛ ولماذا تظهر القليل أو لا تظهر أي قدرة على تفسير المنطق وراء إجاباتها “السهلة”. كما يقترح الباحثون بعض الطرق الجديدة لجعل الأنظمة “تدرس بجد” خلال مرحلة التدريب.
المشكلة هي ثنائية: أولاً، نصمم أنظمة تحاول تحقيق نتائج سريعة وبدقة استخدام للموارد. حتى حيث، كما هو الحال مع GPT-3، قد تكون الموارد أكبر بكثير من ما يمكن لمشروع بحثي عادي في معالجة اللغة الطبيعية أن يتحمله، لا يزال هذا الثقافة من التحسين الموجه للنتائج يهيمن على المنهجية، لأنها أصبحت تهيمن على الاتفاقية الأكاديمية.
نتيجة لذلك، تحفز архيتكتурنا التدريبية نماذج تتقارب بسرعة وتنتج استجابات واضحة للأسئلة، حتى لو كان نموذج معالجة اللغة الطبيعية فيما بعد غير قادر على تبرير استجابته أو إظهار كيف وصل إلى استنتاجاته.
ميل مبكر إلى الغش
يحدث هذا لأن النموذج يتعلم “استجابات الاختصار” في وقت مبكر من التدريب أكثر من تعلمه أنواع أكثر تعقيداً من اكتساب المعرفة. منذ أن يتم مكافأة الدقة المزيدة بشكل غير تمييزي على مدار التدريب، يprioritizes النموذج أي نهج سيسمح له بالإجابة على سؤال “بسهولة”، ودون رؤية حقيقية.
منذ أن تمثل تعلم الاختصار بالضرورة النجاحات الأولى خلال التدريب، فإن الجلسة ستتجه بشكل طبيعي بعيداً عن المهمة الأكثر صعوبة للحصول على منظور معرفي مفيد وأكثر إكمالاً، والذي قد يحتوي على طبقات أعمق وأكثر رؤية من الائتمان والمنطق.
تغذية الذكاء الاصطناعي بالإجابات “السهلة”
المشكلة الثانية هي أن حتى مع مبادرات البحث الأخيرة التي درست ميل الذكاء الاصطناعي إلى “الغش” بهذه الطريقة، وتحديد ظاهرة “الاختصارات”، لم يكن هناك حتى الآن أي جهد لتصنيف المواد التي تمكن من “الاختصارات” في مجموعة البيانات المساهمة، والتي ستكون الخطوة المنطقية الأولى في معالجة ما قد يثبت أنه عيب هيكلي أساسي في أنظمة فهم القراءة الآلية (MRC).
الورقة الجديدة الورقة، وهي تعاون بين معهد Wangxuan للتكنولوجيا الحاسوبية ومختبر MOE الرئيسي لللغويات الحاسوبية في جامعة بكين، تختبر نماذج لغة مختلفة ضد مجموعة بيانات موسومة حديثاً التي تتضمن تصنيفات للإجابات “السهلة” و “الصعبة” للسؤال الممكن.

Source: https://arxiv.org/pdf/2106.01024.pdf
تستخدم المجموعة البيانية المعايير للاجابات الأكثر تعقيداً والأعمق، منذ أن يكون الفهم الدلالي ضرورياً لإعادة صياغة المعرفة المكتسبة. في المقابل، يمكن أن تستخدم الإجابات “الاختصار” رموز مثل التواريخ، والكلمات الرئيسية الأخرى، لإنتاج إجابة صحيحة من الناحية الفعلية، ولكن بدون أي سياق أو منطق.
المكون الاختصاري من التعليقات يحتوي على مطابقة كلمة السؤال (QWM) والمطابقة البسيطة (SpM). بالنسبة إلى QWM، يستخدم النموذج الكيانات المستخرجة من بيانات النص الموردة ويلغي السياق؛ بالنسبة إلى SpM، يعرف النموذج الت重 بين جمل الإجابة والأسئلة، وكلاهما يتم توفيره في بيانات التدريب.
بيانات الاختصار شبه “الفيروسية” في التأثير في مجموعة البيانات
يجادل الباحثون بأن مجموعات البيانات تميل إلى احتواء نسبة عالية من أسئلة الاختصار، مما يجعل النماذج المدربة تعتمد على حيل الاختصار.
النماذج المستخدمة في التجارب كانت BiDAF و BERT-base. يلاحظ الباحثون أن كلا النموذجين لا يزالان يؤدون بشكل أفضل على أسئلة الاختصار من الإجابات الصعبة المُصاغة، على الرغم من عدد الأمثلة القليل في مجموعات البيانات.
هذا يعرض “بيانات الاختصار” شبه في سياق “فيروس” – أنه لا يلزم وجود الكثير منها في مجموعة البيانات لكي يتم تبنيها وتحديدها في التدريب، تحت المعايير والتقاليد التقليدية في معالجة اللغة الطبيعية.
إثبات الغش
يستخدم البحث طريقة لإثبات كيف يحدث انهيار إجابة الاختصار من خلال استبدال كلمة كيان “سهلة” بكلمة غير عادية. حيث يتم استخدام طريقة الاختصار، لا يمكن تقديم منطق الإجابة “المغشوشة”؛ ولكن حيث تم توفير الإجابة من السياق الأعمق وتقييم دلالي لمجموعة أوسع من النصوص المساهمة، من الممكن بالنسبة للنظام لفك الخطأ وإعادة بناء إجابة صحيحة.

استبدال ‘بيونسيه’ (شخص) بـ ‘أمريكا’ (موقع)، يكشف عنwhether النموذج لديه أي منطق خلف إجابته.
الاختصارات بسبب الحاجة الاقتصادية
بخصوص بعض الأسباب الهيكلية لماذا يتم تحديد الاختصارات في تدفقات تدريب معالجة اللغة الطبيعية، يعلق المؤلفون ‘نماذج MRC قد تتعلم حيل الاختصار، مثل QWM، مع موارد حسابية أقل من تحديات الفهم، مثل تحديد المصاغ’.
هذا، ثم، قد يكون نتيجة غير مقصودة للفلسفات القياسية للتحسين والحفاظ على الموارد في نهج فهم القراءة الآلية، والضغط لتحقيق نتائج بموارد محدودة في إطارات زمنية محددة.
يلاحظ الباحثون أيضا:
‘[منذ] أن يمكن استخدام حيلة الاختصار للإجابة على معظم أسئلة التدريب بشكل صحيح، الأسئلة غير المحلولة القليلة المتبقية قد لا تحفز النماذج على استكشاف حلول متطورة تتطلب مهارات صعبة.’
إذا تم تأكيد نتائج الورقة فيما بعد، فمن المحتمل أن يتعين على مجال معالجة البيانات الكبير والمتزايد النظر في “المرافعات الخفية” في البيانات كمشكلة يجب معالجتها على المدى الطويل، أو إعادة تصميم هيكليات معالجة اللغة الطبيعية لتحديد الأولوية لمهام أكثر تحدياً لاستهلاك البيانات.












