الذكاء الاصطناعي
النماذج اللغة الكبيرة ليست منطقية – إنها مجرد تخطيط جيد جدا
أظهرت نماذج اللغة الكبيرة (LLMs) مثل OpenAI’s o3، Google’s Gemini 2.0، وDeepSeek’s R1 تقدمًا ملحوظًا في معالجة المشكلات المعقدة، وتوليد نصوص تشبه الإنسان، وحتى كتابة الشفرة بدقة. غالبًا ما يُشار إلى هذه النماذج المتقدمة باسم “نماذج المنطق” لتقديرها الرائع في تحليل وحل المشكلات المعقدة. لكن هل هذه النماذج تُعتبر فعلا “منطقية”، أم أنها مجرد نماذج جيدة للغاية في “التخطيط”? هذا التمييز دقيق ومع ذلك له عواقب كبيرة على فهم إمكانيات ونقاط الضعف في النماذج اللغة الكبيرة.
للفهم هذا التمييز، دعونا نقارن سيناريوهين:
- المنطق: يجب على المحقق الذي يحقق في جريمة أن يجمع بين الأدلة المتضاربة، ويستنتج أيهما كاذبة، ويتوصل إلى استنتاج بناءً على أدلة محدودة. يتضمن هذا العملية الاستدلال، وتحليل التناقضات، والتفكير المجرد.
- التخطيط: لاعب الشطرنج الذي يحسب أفضل تسلسل للأحكام لتحقيق مات ضد خصمه.
في حين أن كلا العمليتين يتضمنان عدة خطوات، يشارك المحقق في عمق المنطق لاستخلاص الاستدلالات، وتقييم التناقضات، وتطبيق المبادئ العامة على حالة محددة. من ناحية أخرى، يشارك لاعب الشطرنج بشكل رئيسي في التخطيط، حيث يختار تسلسلًا مثاليًا من الأحكام للفوز باللعبة. تعمل نماذج اللغة الكبيرة، كما سنرى، بشكل أكثر تشابهًا مع لاعب الشطرنج من المحقق.
فهم الفرق: المنطق مقابل التخطيط
لمعرفة لماذا تعمل نماذج اللغة الكبيرة بشكل أفضل في التخطيط بدلاً من المنطق، من المهم أولاً فهم الفرق بين المصطلحين. المنطق هو عملية استخلاص استنتاجات جديدة من مقدمات معينة باستخدام المنطق والاستدلال. يتضمن تحديد وتصحيح التناقضات، وتوليد رؤى جديدة بدلاً من تقديم المعلومات فقط، واتخاذ القرارات في المواقف الغامضة، والمشاركة في الفهم السببي والتفكير التخيلي مثل سيناريوهات “ماذا لو”.
كيف تتعامل نماذج اللغة الكبيرة مع “المنطق”
تتمتع نماذج اللغة الكبيرة الحديثة، مثل Chain-of-Thought (CoT) المنطق، لتحسين قدراتها على حل المشكلات.鼓عج هذا الأسلوب النماذج إلى كسر المشكلات إلى خطوات متوسطة، مما يقلد الطريقة التي يفكر بها البشر منطقيًا. للعثور على كيفية عمل ذلك، دعونا ننظر إلى مشكلة رياضية بسيطة:
لماذا Chain-of-thought هو التخطيط وليس المنطق
على الرغم من أن Chain-of-Thought (CoT) قد حسّن أداء نماذج اللغة الكبيرة في المهام المنطقية مثل مشاكل الكلمات الرياضية وتنافس البرمجة، إلا أنه لا يتضمن المنطق المنطقي الحقيقي. هذا لأن CoT يتبع المعرفة الإجرائية، ويعتمد على خطوات منظمة بدلاً من توليد رؤى جديدة. كما أنه يفتقر إلى فهم حقيقي للسببية والعلاقات المجردة، مما يعني أن النموذج لا يشارك في التفكير التخيلي أو يعتبر السيناريوهات التخيلية التي تتطلب حدسًا يتجاوز البيانات التي تم تدريبه عليها.
ما الذي يلزم لجعل نماذج اللغة الكبيرة أصبحت آلات منطقية حقيقية
ما الذي يلزم لجعل نماذج اللغة الكبيرة تعمل بالفعل مثل المنطق البشري؟ هنا بعض المجالات الرئيسية التي تتطلب تحسينًا ونهجًا محتملًا لتحقيقه:
- الفهم الرمزي: يعتمد المنطق البشري على مанипULATION الرموز والعلاقات المجردة.然而، تفتقر نماذج اللغة الكبيرة إلى آلية منطقية رمزية حقيقية. دمج الذكاء الرمزي أو النماذج الهجينة التي تدمج الشبكات العصبية مع الأنظمة المنطقية الرسمية يمكن أن يعزز قدرتهم على المشاركة في المنطق الحقيقي.
- الاستدلال السببي: يتطلب المنطق الحقيقي فهم السبب والنتيجة، وليس فقط الارتباطات الإحصائية. يجب على نموذج يعتمد على المنطق أن يستنتج المبادئ الأساسية من البيانات بدلاً من مجرد التنبؤ بالرمز التالي. يمكن أن يساعد البحث في الذكاء الاصطناعي السببي، الذي يصمم بشكل صريح العلاقات السببية، في جعل نماذج اللغة الكبيرة تنتقل من التخطيط إلى المنطق.
- الانعكاس الذاتي والاعرف: يقيّم البشر باستمرار عمليات التفكير الخاصة بهم من خلال سؤال “هل هذا الاستنتاج معقول؟” من ناحية أخرى، لا تملك نماذج اللغة الكبيرة آلية للانعكاس الذاتي. بناء نماذج يمكنها تقييم إخراجها بشكل نقدي سيكون خطوة نحو المنطق الحقيقي.
- الحس السليم والحدس: على الرغم من أن نماذج اللغة الكبيرة لديها وصول إلى كم هائل من المعرفة، إلا أنها غالبًا ما ت투ق مع المنطق السليم. يحدث هذا لأنها لا تمتلك تجارب العالم الحقيقي لتكوين حدسها، ولا يمكنها بسهولة التعرف على المبالغات التي سوف يكتشفها البشر على الفور. كما أنها تفتقر إلى طريقة جلب الديناميات الحقيقية للعالم إلى اتخاذ القرارات. يمكن أن يكون أحد الطرق لتحسين ذلك هو بناء نموذج مع محرك الحس السليم، وهو ما قد يتضمن دمج الإدخال الحسي للعالم الحقيقي أو استخدام مخططات المعرفة لمساعدة النموذج على فهم العالم بالطريقة التي يفهمها البشر.
- التفكير التخيلي: يتضمن المنطق البشري غالبًا سؤال “ماذا لو كانت الأمور مختلفة؟” ت투ق نماذج اللغة الكبيرة مع هذه الأنواع من سيناريوهات “ماذا لو” لأنها مقيدة بالبيانات التي تم تدريبها عليها. من أجل أن تفكر النماذج بشكل أكثر تشابهًا مع البشر في هذه المواقف، سوف تحتاج إلى محاكاة السيناريوهات التخيلية وفهم كيف يمكن أن تؤثر التغييرات في المتغيرات على النتائج. كما أنها سوف تحتاج إلى طريقة لاختبار الإمكانيات المختلفة واكتشاف رؤى جديدة، بدلاً من مجرد التنبؤ على أساس ما تعلمته.
الختام
على الرغم من أن نماذج اللغة الكبيرة قد تظهر أنها تعتمد على المنطق، إلا أنها في الواقع تعتمد على تقنيات التخطيط لحل المشكلات المعقدة. سواء كانت تحل مشكلة رياضية أو تشارك في الاستدلال المنطقي، فإنها في الأساس تنظم الأنماط المعروفة بطريقة منظمة بدلاً من فهم عميق للمبادئ الأساسية. هذا التمييز حاسم في أبحاث الذكاء الاصطناعي لأننا إذا أخطأنا في اعتبار التخطيط المتقدم على أنه منطق حقيقي، فإننا نخاطر بتقييم إمكانيات الذكاء الاصطناعي بشكل زائد.












