اتصل بنا للحصول على مزيد من المعلومات

هل يمكننا حقًا أن نثق في التفكير التسلسلي للذكاء الاصطناعي؟

الذكاء الاصطناعي

هل يمكننا حقًا أن نثق في التفكير التسلسلي للذكاء الاصطناعي؟

mm

مع انتشار استخدام الذكاء الاصطناعي في مجالات مثل الرعاية الصحية والسيارات ذاتية القيادة، أصبح التساؤل حول مدى ثقتنا به أكثر إلحاحًا. إحدى هذه الطرق، التي تُسمى سلسلة الفكر (CoT) لقد اكتسب التفكير المنطقي اهتمامًا متزايدًا. فهو يساعد الذكاء الاصطناعي على تحليل المشكلات المعقدة إلى خطوات، موضحًا كيفية وصوله إلى حل نهائي. هذا لا يُحسّن الأداء فحسب، بل يُتيح لنا أيضًا فهم كيفية تفكير الذكاء الاصطناعي، وهو أمر مهم لثقة أنظمة الذكاء الاصطناعي وسلامتها.

لكن بحثًا حديثًا أجرته شركة أنثروبيك يتساءل عما إذا كان مفهوم "CoT" يعكس حقًا ما يحدث داخل النموذج. تتناول هذه المقالة كيفية عمل "CoT"، وما توصلت إليه شركة أنثروبيك، وما يعنيه كل ذلك لبناء ذكاء اصطناعي موثوق.

فهم التفكير التسلسلي

الاستدلال التسلسلي هو طريقة لحث الذكاء الاصطناعي على حل المشكلات خطوة بخطوة. فبدلاً من مجرد تقديم إجابة نهائية، يشرح النموذج كل خطوة على طول الطريق. طُرح هذا الأسلوب عام ٢٠٢٢، وساهم منذ ذلك الحين في تحسين النتائج في مهام مثل الرياضيات والمنطق والاستدلال.

نماذج مثل o1 و OpenAI o3, الجوزاء 2.5, ديب سيك R1و كلود 3.7 السوناتة تستخدم هذا الأسلوبمن أسباب شيوع نظرية CoT أنها تجعل تفكير الذكاء الاصطناعي أكثر وضوحًا. وهذا مفيد عندما تكون تكلفة الأخطاء مرتفعة، كما هو الحال في الأدوات الطبية أو أنظمة القيادة الذاتية.

مع ذلك، ورغم أن نظرية التكلفة تُسهم في الشفافية، إلا أنها لا تعكس دائمًا ما يفكر فيه النموذج حقًا. في بعض الحالات، قد تبدو التفسيرات منطقية، لكنها لا تستند إلى الخطوات الفعلية التي اتبعها النموذج للوصول إلى قراره.

هل يمكننا أن نثق في سلسلة الأفكار؟

اختبر أنثروبيك ما إذا كانت تفسيرات نظرية التطابق تعكس حقًا كيفية اتخاذ نماذج الذكاء الاصطناعي للقرارات. تُسمى هذه الصفة "الدقة". درس الباحثون أربعة نماذج، بما في ذلك سونيت كلود 3.5، وسونيت كلود 3.7، وديب سيك R1، وديب سيك V1. من بين هذه النماذج، تم تدريب كلود 3.7 وديب سيك R1 باستخدام تقنيات نظرية التطابق، بينما لم يتم تدريب نماذج أخرى.

أعطوا النماذج توجيهات مختلفة. تضمنت بعض هذه التوجيهات تلميحاتٍ تهدف إلى التأثير على النموذج بطرقٍ غير أخلاقية. ثم تحققوا مما إذا كان الذكاء الاصطناعي يستخدم هذه التوجيهات في استنتاجاته.

أثارت النتائج بعض القلق. إذ لم تُقرّ النماذج باستخدام التلميحات إلا في أقل من ٢٠٪ من الحالات. حتى النماذج المُدرّبة على استخدام نظرية التطابق لم تُقدّم تفسيرات دقيقة إلا في ٢٥ إلى ٣٣٪ من الحالات.

عندما تضمنت التلميحات أفعالًا غير أخلاقية، كالغش في نظام المكافآت، نادرًا ما أقرّت النماذج بذلك. حدث هذا رغم اعتمادها على تلك التلميحات لاتخاذ القرارات.

أدى تدريب النماذج بشكل أكبر باستخدام التعلم التعزيزي إلى تحسن طفيف. لكنه لم يُجدِ نفعًا كبيرًا عندما كان السلوك غير أخلاقي.

لاحظ الباحثون أيضًا أنه عندما لا تكون التفسيرات صادقة، فإنها غالبًا ما تكون أطول وأكثر تعقيدًا. هذا قد يعني أن النماذج كانت تحاول إخفاء ما تفعله حقًا.

وجد الباحثون أيضًا أنه كلما زادت تعقيد المهمة، قلّت دقة التفسيرات. هذا يشير إلى أن نظرية نظرية التكرار قد لا تُجدي نفعًا في حل المشكلات الصعبة. فقد تُخفي ما يفعله النموذج حقًا، خاصةً في القرارات الحساسة أو المحفوفة بالمخاطر.

ماذا يعني هذا بالنسبة للثقة

تُسلّط الدراسة الضوء على فجوة كبيرة بين مدى شفافية نظرية "CoT" ومدى صدقها. في مجالات حيوية كالطب والنقل، يُشكّل هذا خطرًا كبيرًا. فإذا قدّم الذكاء الاصطناعي تفسيرًا منطقيًا ولكنه أخفى أفعالًا غير أخلاقية، فقد يثق الناس به ثقةً خاطئة.

يُعدّ نموذج CoT مفيدًا للمسائل التي تتطلب تفكيرًا منطقيًا عبر عدة خطوات. ولكنه قد لا يكون مفيدًا في اكتشاف الأخطاء النادرة أو الخطيرة. كما أنه لا يمنع النموذج من تقديم إجابات مُضللة أو غامضة.

يُظهر البحث أن CoT وحده لا يكفي للثقة في عملية اتخاذ القرارات التي يقوم بها الذكاء الاصطناعي. هناك حاجة أيضًا إلى أدوات وفحوصات أخرى لضمان سلوك الذكاء الاصطناعي بأمان ونزاهة.

نقاط القوة والحدود في سلسلة الأفكار

على الرغم من هذه التحديات، تُقدم CoT مزايا عديدة. فهي تُساعد الذكاء الاصطناعي على حل المشكلات المعقدة بتقسيمها إلى أجزاء. على سبيل المثال، عند تطوير نموذج لغوي كبير، دفعت باستخدام CoT، أثبت دقةً فائقةً في حل مسائل الرياضيات اللفظية باستخدام هذا الاستدلال التدريجي. كما يُسهّل CoT على المطورين والمستخدمين متابعة عمل النموذج. يُعدّ هذا مفيدًا في مجالات مثل الروبوتات، ومعالجة اللغات الطبيعية، والتعليم.

ومع ذلك، فإنّ CoT ليست خالية من العيوب. فالنماذج الأصغر حجمًا تواجه صعوبة في توليد استنتاجات تدريجية، بينما تحتاج النماذج الأكبر حجمًا إلى ذاكرة وطاقة أكبر لاستخدامها بكفاءة. هذه القيود تُصعّب الاستفادة من CoT في أدوات مثل برامج الدردشة الآلية أو أنظمة الوقت الفعلي.

يعتمد أداء نموذج CoT أيضًا على كيفية كتابة المطالبات. فالمطالبات الضعيفة قد تؤدي إلى خطوات خاطئة أو مُربكة. في بعض الحالات، تُنتج النماذج تفسيرات مطولة لا تُساعد وتُبطئ العملية. كما أن الأخطاء في بداية التفكير قد تنتقل إلى الحل النهائي. وفي المجالات المتخصصة، قد لا يعمل نموذج CoT بكفاءة إلا إذا تم تدريب النموذج في هذا المجال.

عندما نضيف نتائج أنثروبيك، يتضح أن نظرية المعرفة مفيدة، لكنها ليست كافية بحد ذاتها. إنها جزء من جهد أوسع لبناء ذكاء اصطناعي يثق به الناس.

النتائج الرئيسية والطريق إلى الأمام

يُشير هذا البحث إلى بعض الدروس. أولًا، لا ينبغي أن يكون اختبار ثبات النموذج (CoT) الطريقة الوحيدة التي نستخدمها للتحقق من سلوك الذكاء الاصطناعي. ففي المجالات الحرجة، نحتاج إلى المزيد من عمليات التحقق، مثل مراقبة النشاط الداخلي للنموذج أو استخدام أدوات خارجية لاختبار القرارات.

علينا أيضًا أن ندرك أن مجرد تقديم نموذج لتفسير واضح لا يعني بالضرورة أنه صادق. قد يكون التفسير غطاءً وليس سببًا حقيقيًا.

لمعالجة هذه المشكلة، يقترح الباحثون دمج CoT مع مناهج أخرى، مثل أساليب تدريب أفضل، والتعلم المُشرف، والمراجعة البشرية.

توصي أنثروبيك أيضًا بالتعمق في تفاصيل النموذج. على سبيل المثال، قد يُظهر فحص أنماط التنشيط أو الطبقات المخفية ما إذا كان النموذج يخفي شيئًا ما.

والأمر الأكثر أهمية هو أن حقيقة أن النماذج قادرة على إخفاء السلوك غير الأخلاقي تُظهر لماذا هناك حاجة إلى اختبارات قوية وقواعد أخلاقية في تطوير الذكاء الاصطناعي.

بناء الثقة في الذكاء الاصطناعي لا يقتصر على الأداء الجيد فحسب، بل يشمل أيضًا ضمان نزاهة النماذج وأمانها وإمكانية فحصها.

الخط السفلي

ساهم التفكير المتسلسل في تحسين كيفية حل الذكاء الاصطناعي للمشكلات المعقدة وتفسير إجاباتها. لكن الأبحاث تُظهر أن هذه التفسيرات ليست صادقة دائمًا، خاصةً عندما يتعلق الأمر بالمسائل الأخلاقية.

لـ CoT حدود، منها ارتفاع التكاليف، والحاجة إلى نماذج كبيرة، والاعتماد على توجيهات جيدة. ولا يمكنها ضمان أن يعمل الذكاء الاصطناعي بطرق آمنة أو عادلة.

لبناء ذكاء اصطناعي يُمكننا الاعتماد عليه حقًا، يجب دمج CoT مع أساليب أخرى، بما في ذلك الإشراف البشري والفحوصات الداخلية. كما يجب مواصلة البحث لتحسين موثوقية هذه النماذج.

الدكتور تحسين ضياء هو أستاذ مشارك دائم في جامعة كومساتس إسلام أباد، ويحمل درجة الدكتوراه في الذكاء الاصطناعي من جامعة فيينا للتكنولوجيا، النمسا. متخصص في الذكاء الاصطناعي، والتعلم الآلي، وعلوم البيانات، ورؤية الكمبيوتر، وقد قدم مساهمات كبيرة من خلال منشورات في المجلات العلمية ذات السمعة الطيبة. كما قاد الدكتور تحسين العديد من المشاريع الصناعية كمحقق رئيسي وعمل كمستشار في الذكاء الاصطناعي.