هندسة المحفزات
مواجهة الوهم في نماذج اللغة الكبيرة: مسح لتقنيات الطرف القاطع

فتحت نماذج اللغة الكبيرة (LLMs) مثل GPT-4 و PaLM و Llama الطريق أمام تحسينات ملحوظة في قدرات توليد اللغة الطبيعية. ومع ذلك، فإن التحدي المستمر الذي يحد من موثوقيتهم وتنفيذهم الآمن هو ميلهم إلى الخيال – توليد المحتوى الذي يبدو متسقًا ولكن خاطئ من الناحية الفعلية أو غير مبرر من السياق الإدخال.
随着 استمرار نمو نماذج اللغة الكبيرة وأصبحت أكثر قوة وانتشارًا عبر التطبيقات الفعلية، أصبح معالجة الخيال أمرًا ضروريًا. يقدم هذا المقال نظرة شاملة على أحدث التقنيات التي قدمها الباحثون لاكتشاف وقياس وتخفيف الخيال في نماذج اللغة الكبيرة.
فهم الخيال في نماذج اللغة الكبيرة
يُشير الخيال إلى عدم الدقة الفعلية أو الخيال الذي تولده نماذج اللغة الكبيرة والتي ليست مبررة من الواقع أو السياق المُقدم.
- اختراع تفاصيل سيرة ذاتية أو أحداث غير مدعومة بالدليل في توليد النص حول شخص.
- تقديم نصائح طبية خاطئة من خلال الخيال في الآثار الجانبية للأدوية أو إجراءات العلاج.
- اختراع بيانات أو دراسات أو مصادر غير موجودة لدعم المطالبة.
ينشأ هذا الظاهرة لأن نماذج اللغة الكبيرة يتم تدريبها على كميات هائلة من بيانات النص عبر الإنترنت. بينما يسمح هذا بتحقيق قدرات قوية في نمذجة اللغة، ي意味ى أيضًا أنهم يتعلمون الاستدلال على المعلومات وصنع القفزات المنطقية وملء الفجوات بطريقة تبدو مقنعة ولكن قد تكون خادعة أو خاطئة.
تتضمن بعض العوامل الرئيسية المسؤولة عن الخيال:
- التعميم النمطي – تعرف نماذج اللغة الكبيرة على الأنماط في بيانات التدريب التي قد لا تُعمم جيدًا.
- المعرفة القديمة – يمنع التدريب المسبق الثابت دمج المعلومات الجديدة.
- الغموض – تسمح الإشارات الغامضة بفرص لافتراضات خاطئة.
- الانحياز – تعزز النماذج الانحيازات وتضخمها.
- نقص التأسيس – يعني نقص الفهم والاستدلال أن النماذج تولد محتوى لا تفهمه تمامًا.
معالجة الخيال أمر حاسم لتنفيذ موثوق به في المجالات الحساسة مثل الطب والقانون والمالية والتعليم حيث يمكن توليد معلومات خاطئة أن تؤدي إلى ضرر.
تصنيف تقنيات تخفيف الخيال
قدّم الباحثون تقنيات متنوعة لمكافحة الخيال في نماذج اللغة الكبيرة، والتي يمكن تصنيفها إلى:
1. هندسة الإشارات
ت涉ل هذه العملية في صياغة إشارات بعناية لتوفير السياق وتوجيه نموذج اللغة الكبيرة نحو استجابات مبررة ومدعومة بالحقيقة.
- تعزيز الاسترجاع – استرجاع أدلة خارجية لتأسيس المحتوى.
- دوائر التغذية الراجعة – تقديم التغذية الراجعة بشكل تكراري لتحسين الاستجابات.
- ضبط الإشارات – تعديل الإشارات أثناء التنقيح الدقيق للسلوكيات المرغوبة.
2. تطوير النموذج
إنشاء نماذج أقل عرضة للخيال من خلال التغييرات المعمارية.
- استراتيجيات الفك – توليد النص بطريقة تزيد من الإخلاص.
- تأسيس المعرفة – دمج قواعد المعرفة الخارجية.
- دالات خسارة جديدة – تحسين الإخلاص أثناء التدريب.
- التنقيح الدقيق الخاضع للإشراف – استخدام بيانات مُصنفة من قبل البشر لتعزيز الحقيقة.
فيما يلي، نستعرض التقنيات البارزة في كل نهج.
تقنيات تخفيف الخيال البارزة
توليد مدعوم بالاسترجاع
يعزز توليد مدعوم بالاسترجاع من نماذج اللغة الكبيرة من خلال استرجاع وتكييف توليد النص على وثائق الأدلة الخارجية، بدلاً من الاعتماد فقط على المعرفة الضمنية للنموذج.
تتضمن التقنيات البارزة:
- RAG – يستخدم وحدة استرجاع لتوفير مقاطع ذات صلة لنموذج seq2seq لتوليد منها. يتم تدريب كلا المكونين بشكل متزامن.
- RARR – يستخدم نماذج اللغة الكبيرة للبحث في المطالبات غير المنسوبة في النص التوليدي وتصحيحها لتناسب الأدلة المسترجعة.
- استرجاع المعرفة – يؤكد توليدات غير مؤكدة باستخدام معرفة مُسترجعة قبل إنتاج النص.
- LLM-Augmenter – يبحث بشكل تكراري في المعرفة لإنشاء سلاسل أدلة لإشارات نماذج اللغة الكبيرة.
التغذية الراجعة والاستدلال
يمكن استخدام التغذية الراجعة اللغوية التكرارية أو الاستدلال الذاتي لتمكين نماذج اللغة الكبيرة من تحسين وتحسين مخرجاتها الأولية، مما يقلل من الخيال.
CoVe يستخدم تقنية سلسلة التحقق. يُولد نموذج اللغة الكبيرة أولاً مسودة للاستجابة لاستفسار المستخدم. ثم يُولد أسئلة تحقق محتملة لفحص استجابته الخاصة، بناءً على ثقته في العبارات المختلفة المُقدمة. على سبيل المثال، لاستجابة تصف علاجًا طبيًا جديدًا، قد يُولد CoVe أسئلة مثل “ما هو معدل الفعالية للعلاج؟”، “هل حصل على موافقة تنظيمية؟”، “ما هي الآثار الجانبية المحتملة؟”. ومن المهم أن يحاول النموذج بعد ذلك الإجابة على هذه الأسئلة التحقق بشكل مستقل دون انحياز لاستجابته الأولية. إذا كانت إجابات أسئلة التحقق تتناقض أو لا تدعم العبارات المُقدمة في الاستجابة الأصلية، يحدد النظام تلك كخيال محتمل ويحسن الاستجابة قبل تقديمها للمستخدم.
DRESS يركز على ضبط نماذج اللغة الكبيرة لتناسب تفضيلات الإنسان بشكل أفضل من خلال التغذية الراجعة اللغوية. يسمح النهج للمستخدمين غير الخبراء بتقديم نقد شفهي على توليدات النموذج، مثل “يبدو أن الآثار الجانبية المذكورة مُبالغ فيها” أو تعليمات تحسين مثل “يرجى مناقشة الفعالية من حيث التكلفة أيضًا”. يستخدم DRESS التعلم بالتعزيز لتدريب النماذج على توليد استجابات مشروطة على مثل هذه التغذية الراجعة التي تتوافق بشكل أفضل مع تفضيلات الإنسان. هذا يعزز التفاعل ويقلل من العبارات غير الواقعية أو غير المدعومة.
MixAlign يتعامل مع الحالات التي يطلب فيها المستخدمون أسئلة لا تتوافق مباشرة مع مقاطع الأدلة التي يسترجعها النظام. على سبيل المثال، قد يطلب المستخدم “هل سيتدeter التلوث في الصين؟” في حين تناقش المقاطع المُسترجعة اتجاهات التلوث على الصعيد العالمي. لتجنب الخيال مع سياق غير كافٍ، يُصرّح MixAlign بشكل صريح مع المستخدم عند الشك في كيفية ربط سؤاله بالمعلومات المُسترجعة. يسمح هذا الآلية التي تضم الإنسان في الحلقة بتحقيق التغذية الراجعة لتحديد وتأصيل السياق بشكل صحيح، وتمنع الاستجابات غير المُبررة.
تقنية التأمل الذاتي يُدرب نماذج اللغة الكبيرة على تقييم وتقديم تغذية راجعة لاستجاباتها الخاصة وتصحيحها بشكل تكراري باستخدام نهج متعدد المهام. على سبيل المثال، بالنسبة لاستجابة مُولدة لاستفسار طبي، يتعلم النموذج تقييم الدقة الفعلية، وتحديد أي عبارات متناقضة أو غير مدعومة، وتصحيحها من خلال استرجاع المعرفة ذات الصلة. من خلال تعليم نماذج اللغة الكبيرة هذه الدورة التغذية الراجعة للفحص والانتقاد والتحسين التكراري لمخرجاتها، يقلل النهج من الخيال الأعمى.
ضبط الإشارات
يسمح ضبط الإشارات بتعديل الإشارات الإرشادية التي تُقدم إلى نماذج اللغة الكبيرة أثناء التنقيح الدقيق للسلوكيات المرغوبة.
يستخدم نهج SynTra مهمة تلخيص اصطناعي لتقليل الخيال قبل نقل النموذج إلى مجموعات بيانات التلخيص الفعلية. توفر المهمة الاصطناعية مقاطع إدخال وتطلب من النماذج تلخيصها من خلال الاسترجاع فقط، دون إabstract. يُدرب هذا النماذج على الاعتماد完全 على المحتوى المُourced بدلاً من الخيال أثناء التلخيص. يُظهر SynTra تقليل قضايا الخيال عند تنفيذ النماذج المُعدلة على المهام المستهدفة.
UPRISE يُدرب مسترجع إشارات عالمي لتقديم الإشارة الناعمة المثالية للتعلم القليل على مهام غير مُشاهدة. من خلال استرجاع إشارات فعالة مُعدة على مجموعة متنوعة من المهام، يتعلم النموذج التعميم والتكيف مع مهام جديدة حيث يفتقر إلى أمثلة تدريبية. يعزز هذا الأداء دون الحاجة إلى ضبط مخصص للمهمة.
هياكل نموذجية جديدة
FLEEK هو نظام يركز على مساعدة محققين الحقائق والمدققين. يحدد تلقائيًا المطالبات الفعلية المحتملة المُقدمة في نص معين. يُحول FLEEK هذه العبارات القابلة للتحقق إلى استفسارات، ويسترجع أدلة ذات صلة من قواعد المعرفة، ويوفر هذه المعلومات السياقية إلى المدققين لتحقق فعال من دقة الوثيقة ومتطلبات المراجعة.
يُقلل نهج CAD من الخيال في توليد اللغة من خلال فك التشفير المتأصل في السياق. بشكل خاص، يزيد CAD من الفروقات بين توزيع مخرجات نموذج اللغة الكبيرة عندما يُشطر على سياق مقابل توليد غير مشروط. هذا يمنع مخالفة الأدلة السياقية، ويدفع النموذج نحو توليد مُبرر.
DoLA يُخفف من الخيال الفعلي من خلال تحديد контраست لوجيت من طبقات مختلفة من شبكات التランスفورمر. منذ أن تميل المعرفة الفعلية إلى أن تكون محلية في بعض الطبقات الوسطى، يزيد DoLA من الإشارات من هذه الطبقات الفعلية من خلال تحديد لوجيت، ويقلل من توليد الحقائق غير الصحيحة.
يُقدم إطار THAM مصطلح调节 أثناء التدريب لتحقيق الحد الأدنى من المعلومات المتبادلة بين الإدخال ومخرجات الخيال. هذا يساعد على زيادة اعتماد النموذج على السياق الإدخال المُقدم بدلاً من الخيال غير المُربط، ويقلل من الخيال الأعمى.
تأسيس المعرفة
يمنع تأسيس توليدات نماذج اللغة الكبيرة في معرفة منظم من التكهنات غير المُبررة والاختراع.
يحدد نموذج RHO الكيانات في سياق محادثة ويربطها بقاعدة معرفة. تُسترجع الحقائق والعلاقات ذات الصلة حول هذه الكيانات من قاعدة المعرفة وتُدمج في تمثيل السياق الذي يُقدم إلى نموذج اللغة الكبيرة. هذا يقلل من الخيال في الحوار من خلال الحفاظ على الاستجابات مرتبطة بالحقائق المُبررة حول الكيانات والأحداث المذكورة.
HAR يُنشئ مجموعات بيانات تدريبية مضادة تحتوي على خيال مُولد من قبل النموذج لتعليم التأسيس بشكل أفضل. بالنسبة لمقال حقائق، يُطلب من النماذج إدخال خيال أو تشويه لإنشاء نسخة مضادة. يُجبر التنقيح الدقيق على هذه البيانات النماذج على تأسيس المحتوى في المصادر الحقيقية الأصلية، ويقلل من التخيل.
التنقيح الدقيق الخاضع للإشراف
- Coach – إطار تفاعلي يُجيب على استفسارات المستخدمين ويطلب تصحيحات لتحسين الأداء.
- R-Tuning – ضبط يرفض الأسئلة غير المدعومة المُحددة من خلال فجوات المعرفة في بيانات التدريب.
- TWEAK – طريقة فك ترتيب توليدات بناءً على مدى دعم الفرضيات للحقائق الإدخال.
التحديات والقيود
على الرغم من التقدم الواعد، لا تزال بعض التحديات الرئيسية في تخفيف الخيال:
- غالبًا ما تُبادل التقنيات بين الجودة والترابط والإبداع من أجل الصحة.
- صعوبة التقييم الشامل بما يزيد عن المجالات المحدودة. لا تُلتقط المقاييس جميع النُّعانات.
- تتطلب العديد من الأساليب計算ية مكلفة، تتطلب استرجاعًا أو استدلالًا ذاتيًا مكثفًا.
- تعتمد بشكل كبير على جودة بيانات التدريب ومصادر المعرفة الخارجية.
- صعب ضمان القابلية للتعميم عبر المجالات والوسائط.
- لا يزال الجذور الأساسية للخيال مثل التعميم المفرط غير محلولة.
من المرجح أن تتطلب معالجة هذه التحديات نهجًا متعددة الطبقات يجمع بين تحسينات بيانات التدريب وتحسينات هيكل النموذج وخفضات الإخلاص وتقنيات وقت الاستدلال.
الطريق أمامنا
يظل تخفيف الخيال في نماذج اللغة الكبيرة مشكلة بحث مفتوحة مع تقدم نشط. بعض الاتجاهات الواعدة للمستقبل تشمل:
- تقنيات هجينة: دمج نهج مکملة مثل الاسترجاع وتأسيس المعرفة والتغذية الراجعة.
- نمذجة السببية: تعزيز الفهم والاستدلال.
- تكامل المعرفة عبر الإنترنت: الحفاظ على المعرفة العالمية محدثة.
- التحقق الرسمي: تقديم ضمانات رياضية للسلوك النموذجي.
- الوضوح: بناء الشفافية في تقنيات التخفيف.
مع استمرار انتشار نماذج اللغة الكبيرة عبر المجالات الحساسة، سيكون تطوير حلول قوية لمكافحة الخيال حاسمًا لضمان تنفيذها الآمن والموثوق والموثوق به. توفر التقنيات المُستعرضة في هذا المقال نظرة عامة على التقنيات المقترحة حتى الآن، حيث تظل تحديات البحث المفتوحة. بشكل عام، هناك اتجاه إيجابي نحو تعزيز صحة النموذج، ولكن الاستمرار في التقدم يتطلب معالجة القيود واستكشاف اتجاهات جديدة مثل السببية والتحقق والأساليب الهجينة. مع الجهود المُتضافرة من الباحثين عبر التخصصات، يمكن تحويل حلم نماذج اللغة الكبيرة القوية والموثوقة إلى حقيقة.










