الذكاء الاصطناعي
ما هي هلوسات LLM؟ الأسباب والاهتمامات الأخلاقية والوقاية

تعتبر نماذج اللغة الكبيرة (LLM) أنظمة ذكاء اصطناعي قادرة على تحليل ونشر نصوص تشبه تلك التي ينتجها الإنسان. ومع ذلك ، لديها مشكلة – هلوسات LLM ، أي اختراع الأشياء. وقد أثار هذا القلق بين الباحثين حول التقدم في هذا المجال لأنهم إذا لم يتمكنوا منควบคله ، فلن يتمكنوا من بناء أنظمة حرجة لخدمة البشرية. المزيد عن هذا لاحقًا.
عادةً ما تستخدم نماذج اللغة الكبيرة كميات هائلة من بيانات التدريب وخيوط التعلم المعقدة لإنشاء مخرجات واقعية. في بعض الحالات ، يتم استخدام التعلم في السياق لتدريب هذه النماذج باستخدام أمثلة قليلة فقط. وتزداد شعبية نماذج اللغة الكبيرة بشكل متزايد عبر مختلف مجالات التطبيق ، من ترجمة الآلة إلى تحليل المشاعر ومساعدة الواقع الافتراضي وتعليم الصور ومعالجة اللغة الطبيعية ، وغيرها.
على الرغم من الطبيعة المتقدمة لنماذج اللغة الكبيرة ، إلا أنها لا تزال عرضة للتحيز والأخطاء والهلوسات. ذكر يان ليكون ، رئيس عالم الذكاء الاصطناعي الحالي في ميتا ، مؤخرًا العيب المركزي في نماذج اللغة الكبيرة الذي يسبب الهلوسات: “نماذج اللغة الكبيرة لا تمتلك فكرة عن الواقع الكامن الذي تصفه اللغة. هذه الأنظمة تنتج نصًا يبدو جيدًا من الناحية النحوية والدلالية ، لكنها لا تمتلك هدفًا موضوعيًا بخلاف إرضاء الاتساق الإحصائي مع التلميح”.
هلوسات في LLM

صورة بواسطة جيرالت من Pixabay
تُشير الهلوسات إلى أن النموذج ينتج مخرجات متوافقة من الناحية النحوية والدلالية ولكن غير متصلة بالواقع ومدعومة بافتراضات خاطئة. وتعد الهلوسات واحدة من الاهتمامات الأخلاقية الرئيسية لنماذج اللغة الكبيرة ، ويمكن أن يكون لها عواقب ضارة إذا بدأ المستخدمون بدون معرفة كافية بالمجال في الاعتماد بشكل مفرط على هذه النماذج اللغة المتقنة.
ومن المحتمل أن يكون هناك درجة معينة من الهلوسات في جميع نماذج اللغة الكبيرة التلقائية. على سبيل المثال ، يمكن للنموذج أن يattributes اقتباس زائف إلى مشهور لم يقل قط. وقد يؤكد شيء ما حول موضوع معين هو خطأ أو يشيروا إلى مصادر غير موجودة في الأبحاث ، مما يؤدي إلى نشر معلومات خاطئة.
ومع ذلك ، فإن جعل نماذج الذكاء الاصطناعي تهلوس لا يؤدي دائمًا إلى آثار سلبية. على سبيل المثال ، تشير دراسة جديدة إلى أن العلماء يكتشفون “بروتينات جديدة مع مجموعة لا حصر لها من الخصائص” من خلال نماذج اللغة الكبيرة التي تهلوس.
ما الذي يسبب هلوسات LLM؟
يمكن أن تهلوس نماذج اللغة الكبيرة بسبب عوامل مختلفة ، من أخطاء التأهيل والتشفير إلى التحيز في التدريب.
التأهيل الزائد

صورة بواسطة janjf93 من Pixabay
يعد التأهيل الزائد مشكلة حيث يتوافق نموذج الذكاء الاصطناعي مع بيانات التدريب جيدًا ، ولكنه لا يستطيع تمثيل toànية مجموعة المدخلات التي قد يتعامل معها ، أي أنه يفشل في تعميم قوته التنبؤية إلى بيانات جديدة غير موصوفة. يمكن أن يؤدي التأهيل الزائد إلى أن ينتج النموذج محتوى هلوسات.
أخطاء التشفير والفك

صورة بواسطة جيرالت من Pixabay
إذا كان هناك أخطاء في تشفير النص وتمثيله اللاحق ، يمكن أن يؤدي ذلك أيضًا إلى أن ينتج النموذج مخرجات غير منطقية وخطأ.
التحيز في التدريب

صورة بواسطة Quince Creative من Pixabay
عامل آخر هو وجود تحيز معين في بيانات التدريب ، مما يمكن أن يؤدي إلى أن ينتج النموذج نتائج تمثل تلك التحيزات بدلاً من طبيعة البيانات الفعلية. هذا مشابه لنقص التنوع في بيانات التدريب ، مما يحد من قدرة النموذج على تعميم البيانات الجديدة.
يعد بنية نماذج اللغة الكبيرة معقدة ، مما يجعل من الصعب على الباحثين وممارسين الذكاء الاصطناعي تحديد وتفسير وتصحيح الأسباب الكامنة وراء الهلوسات.
الاهتمامات الأخلاقية لهلوسات LLM
يمكن لنماذج اللغة الكبيرة أن تعزز وتضخم التحيزات الضارة من خلال الهلوسات ، ويمكن أن يكون لها عواقب سلبية على المستخدمين ويمكن أن يكون لها عواقب اجتماعية سلبية. بعض هذه الاهتمامات الأخلاقية الأكثر أهمية هي:
المحتوى التمييزي والسموم

صورة بواسطة ar130405 من Pixabay
نظرًا لأن بيانات التدريب لنماذج اللغة الكبيرة غالبًا ما تكون مليئة بالاستереوتيبات الاجتماعية والثقافية بسبب التحيزات الكامنة ونقص التنوع ، يمكن لنماذج اللغة الكبيرة أن تنتج وتعزز هذه الأفكار الضارة ضد المجموعات المهمشة في المجتمع.
يمكنها أن تنتج هذا المحتوى التمييزي والكرهي بناءً على العرق أو الجنس أو الدين أو العرق ، وغيرها.
قضايا الخصوصية

صورة بواسطة JanBaby من Pixabay
تُدرّب نماذج اللغة الكبيرة على مجموعة تدريبية ضخمة غالبًا ما تشمل معلومات شخصية للأفراد. وقد تم تسجيل حالات حيث انتهكت هذه النماذج خصوصية الأشخاص. يمكنهم تسريب معلومات محددة مثل أرقام التأمين الاجتماعي وعناوين المنازل وأرقام الهواتف وأفاضل طبية.
معلومات خاطئة وتضليلية

صورة بواسطة جيرالت من Pixabay
يمكن لنماذج اللغة أن تنتج محتوى يبدو دقيقًا ولكن في الواقع خاطئ وغير مدعوم بالدليل التجريبي. يمكن أن يكون هذا عن طريق الخطأ ، مما يؤدي إلى معلومات خاطئة ، أو يمكن أن يكون هناك نوايا خبيثة ل نشر معلومات خاطئة. إذا تم تجاهله ، يمكن أن يؤدي إلى اتجاهات اجتماعية وثقافية واقتصادية وسياسية سلبية.
منع هلوسات LLM

صورة بواسطة athree23 من Pixabay
يتخذ الباحثون وممارسو الذكاء الاصطناعي مختلف المناهج لمعالجة مشكلة الهلوسات في نماذج اللغة الكبيرة. تشمل هذه التحسينات تقنيات التنظيم الأفضل ، وإزالة التحيزات الكامنة ، واستخدام تقنيات التدريب المعاكس والتعلم التعزيزي ، وغيرها:
- تطوير تقنيات التنظيم الأفضل هو جوهر معالجة الهلوسات. تساعد في منع التأهيل الزائد والمشاكل الأخرى التي تسبب الهلوسات.
- يمكن أن يقلل تعزيز البيانات من تكرار الهلوسات ، كما هو موضح في دراسة بحثية. يتضمن تعزيز البيانات إضافة رمز عشوائي في أي مكان في الجملة. يضاعف حجم مجموعة التدريب ويتسبب في انخفاض تكرار الهلوسات.
- طور OpenAI و Google’s DeepMind تقنية تسمى التعلم التعزيزي مع反馈 بشري (RLHF) لمعالجة مشكلة هلوسات ChatGPT. يتضمن ذلك تقييمًا بشريًا يراجع باستمرار استجابات النموذج ويتعرف على الأكثر ملاءمة لتحفيزات المستخدم. ثم يتم استخدام هذا التقييم لتعديل سلوك النموذج. ذكر إيليا سوتسكيفير ، عالم الذكاء الاصطناعي الرئيسي في OpenAI ، مؤخرًا أن هذا النهج يمكن أن يحل هلوسات ChatGPT: “أنا متفائل جدًا بأننا من خلال تحسين خطوة التعلم التعزيزي لاحقًا مع反馈 بشري ، يمكننا تعليمها على عدم الهلوسة”.
- يمكن أن يكون تحديد المحتوى الهلوسي لاستخدامه كأمثلة لتدريب مستقبلي وسيلة لمعالجة الهلوسات. تقنية جديدة في هذا الصدد تكتشف هلوسات على مستوى الرمز وتتنبأ بحدوث هلوسة لكل رمز في المخرجات. كما يتضمن طريقة للتعلم غير الموجه لكاشفات الهلوسة.
ببساطة ، هلوسات LLM هي مشكلة متزايدة. وعلى الرغم من الجهود ، لا يزال هناك الكثير من العمل الذي يجب القيام به لمعالجة المشكلة. تعقيد هذه النماذج يجعل من الصعب تحديد وتفسير الأسباب الكامنة وراء الهلوسات بشكل صحيح.
ومع ذلك ، مع الاستمرار في البحث والتطوير ، من الممكن التغلب على هلوسات LLM وتقليل عواقبها الأخلاقية.
إذا كنت تريد معرفة المزيد عن نماذج اللغة الكبيرة والتقنيات الوقائية التي يتم تطويرها لمعالجة هلوسات LLM ، فتفضل بزيارة unite.ai لتوسيع معرفتك.













