الذكاء الاصطناعي
لماذا لا يزال الذكاء الاصطناعي الآلي يفشل في العالم الحقيقي

على مدى السنوات القليلة الماضية، شهدنا أنظمة الذكاء الاصطناعي الوكيل تُقدم عروضًا توضيحية مُبهرة. فهي تكتب برمجيات تجتاز اختبارات الكفاءة، وتبحث في الإنترنت وتُجيب على أسئلة مُعقدة، وتتنقل بين واجهات البرامج بدقة فائقة. كل عرض تقديمي في المؤتمرات، وكل بيان صحفي، وكل تقرير معياري يُسلط الضوء على ظهور الذكاء الاصطناعي الوكيل.
لكن ثمة مشكلة كامنة وراء هذه العروض المبهرة. فعندما تنتقل هذه الأنظمة نفسها من بيئات خاضعة للرقابة إلى تطبيقات عملية في العالم الحقيقي، فإنها غالباً ما فشل بطرق لم تتوقعها المعايير القياسية. مولد الشفرة الذي عمل بكفاءة تامة على 100 مثال مُختار بعناية، بدأ يُنتج أخطاءً في حالات استثنائية لم يسبق له رؤيتها. مُحرك البحث على الويب الذي حقق دقة 85% في المختبر، يُظهر نتائج غير ذات صلة بشكل متزايد مع تغير سلوك المستخدمين. نظام التخطيط الذي نسق عشر استدعاءات لواجهة برمجة التطبيقات بسلاسة أثناء الاختبار، يتعطل عند مواجهة تنسيق استجابة غير متوقع لواجهة برمجة التطبيقات.
لا تفشل هذه الأنظمة بسبب افتقارها للذكاء، بل بسبب افتقارها إلى تكيفتكمن المشكلة في كيفية تعلم أنظمة الذكاء الاصطناعي وتكيفها. فبينما تُبنى الأنظمة المتطورة على نماذج أساسية ضخمة، لا يكفي الذكاء الخام وحده. ولأداء مهام متخصصة، يجب أن يكون النظام قادراً على التكيف. ولا تستطيع أنظمة الذكاء الاصطناعي الحالية القيام بذلك بسبب القيود الهيكلية في تصميمها وتدريبها. في هذه المقالة، نستكشف هذه القيود وأسباب استمرارها.
وهم القدرة في العروض التوضيحية
إنّ أخطر عيوب الذكاء الاصطناعي الحديث هو وهم الكفاءة. فالعروض التوضيحية القصيرة غالبًا ما تخفي التعقيد الحقيقي. وهي تعمل على مجموعات بيانات نظيفة، وواجهات برمجة تطبيقات متوقعة، ونطاقات مهام محدودة. أما بيئات الإنتاج فهي عكس ذلك تمامًا؛ فقواعد البيانات غير مكتملة، وتتغير المخططات فجأة، وتتعطل الخدمات، وتتعارض الصلاحيات، ويطرح المستخدمون أسئلة تخالف الافتراضات الأساسية للنظام.
هنا يزداد تعقيد الإنتاج بشكل ملحوظ. قد تظهر حالة استثنائية واحدة مرة واحدة في عرض توضيحي، لكنها قد تتكرر آلاف المرات يوميًا عند النشر الفعلي. تتراكم الأخطاء الاحتمالية الصغيرة. وسرعان ما يصبح النظام الذي "يعمل بشكل صحيح في الغالب" غير موثوق به في العمليات الحقيقية.
يكمن جوهر المشكلة في الاعتماد على نماذج أساسية ثابتة. تتفوق هذه النماذج في إكمال الأنماط، لكن سلوك الوكلاء متسلسل ومرتبط بالحالة. يعتمد كل إجراء على نتيجة الإجراء السابق. في مثل هذه الظروف، يتراكم عدم اليقين الإحصائي بسرعة. قد يؤدي خطأ بسيط في بداية المهمة إلى سلسلة من الحلقات المفرغة، أو الطرق المسدودة، أو حتى إجراءات مدمرة لاحقًا. لهذا السبب، غالبًا ما تتدهور كفاءة الوكلاء الذين يبدون أكفاءً أثناء التقييم بسرعة بمجرد نشرهم.
المشكلة ليست في غياب ميزة معينة، بل في أن النماذج العامة يُطلب منها أن تتصرف كمتخصصين في مجال معين دون السماح لها بالتعلم من بيئتها.
من الذكاء العام إلى الكفاءة الظرفية
تُصمَّم نماذج المؤسسة لتكون عامة، فهي تُجسِّد معرفة واسعة وأنماط تفكير مرنة. أما عوامل الإنتاج، فيجب أن تكون مُلائمة للظروف، إذ تحتاج إلى فهم القواعد والقيود وأنماط الفشل الخاصة بمؤسسة معينة وأدواتها. وبدون ذلك، تُشبه شخصًا قرأ جميع الأدلة لكنه لم يمارس العمل يومًا واحدًا.
يتطلب سد هذه الفجوة إعادة النظر في مفهوم التكيف نفسه. وتنقسم الأساليب الحالية إلى فئتين رئيسيتين، معسكرات معيبةإعادة تدريب نظام الذكاء الاصطناعي الأساسي نفسه، أو تعديل الأدوات الخارجية التي يستخدمها. كل نهج يحل مشكلة واحدة ولكنه يخلق مشاكل أخرى. وهذا يتركنا أمام أنظمة إما شديدة الصلابة، أو باهظة التكلفة، أو غير مستقرة بما يكفي لبيئات الإنتاج حيث تُعدّ الاتساق والتكلفة من العوامل المهمة.
فخ العميل المتجانس
يسعى النهج الأول، وهو تكييف الوكيل، إلى جعل نموذج التعلم اللغوي الأساسي أكثر ذكاءً في استخدام الأدوات. فهو يُعلّم الذكاء الاصطناعي المهارات اللازمة لاستخدام هذه الأدوات. ويصنف الباحثون هذا النهج إلى فئتين: الأولى تُدرّب الوكيل باستخدام التغذية الراجعة المباشرة من الأدوات، مثل نجاح مُجمّع الشفرة أو نتائج محرك البحث؛ والثانية تُدرّبه بناءً على صحة المخرجات النهائية، مثل الإجابة الصحيحة أو الخاطئة.
أنظمة مثل ديب سيك-R1 و بحث-R1 تُظهر هذه النتائج أن الأنظمة الذكية قادرة على تعلم استراتيجيات معقدة ومتعددة الخطوات لاستخدام الأدوات. مع ذلك، تأتي هذه القدرة بتكلفة باهظة. فتدريب نماذج ذات مليارات المعلمات يتطلب موارد حاسوبية هائلة. والأهم من ذلك، أنه يُنتج ذكاءً جامدًا وهشًا. ومن خلال الجمع بين معرفة النظام الذكي وقواعد استخدام الأدوات، يجعل هذا النهج التحديثات بطيئة ومحفوفة بالمخاطر وغير مناسبة لاحتياجات العمل المتغيرة بسرعة. إن تكييف النظام الذكي مع مهمة أو أداة جديدة ينطوي على مخاطر.نسيان كارثيةحيث يفقد المهارات التي أتقنها سابقاً. يشبه الأمر الحاجة إلى إعادة بناء خط تجميع مصنع كامل في كل مرة تريد إضافة قطعة جديدة.
مشكلة صندوق الأدوات الهش
وإدراكًا لهذه القيود، فإن النهج الرئيسي الثاني، تكيف الأدواتيُبقي هذا الأسلوب العامل الأساسي ثابتًا، ويركز بدلًا من ذلك على تحسين الأدوات في منظومته. وهذا أكثر مرونة وأقل تكلفة. تُدرَّب بعض الأدوات بشكل عام، مثل أداة البحث والاسترجاع القياسية، ثم تُدمج في النظام. بينما تُضبط أدوات أخرى خصيصًا لتكملة العامل الثابت، وتتعلم من مخرجاته لتصبح أدوات مساعدة أفضل.
يحمل هذا النموذج وعوداً هائلة لتحقيق الكفاءة. دراسة رائدة لنظام يُسمى s3 أظهرت هذه الدراسة إمكانات هذا النهج. فقد درّبت أداة بحث صغيرة ومتخصصة لدعم نموذج التعلم اللوجستي المجمد، محققةً أداءً يُضاهي أداء وكيل مُعاد تدريبه بالكامل مثل Search-R1، ولكن باستخدام بيانات تدريب أقل بسبعين مرة. والفكرة الأساسية هي: لماذا نعيد تعليم فيزيائي عبقري كيفية استخدام فهرس المكتبة؟ بدلاً من ذلك، يكفي تدريب أمين مكتبة أفضل يفهم احتياجات الفيزيائي.
مع ذلك، فإن نموذج مجموعة الأدوات له حدوده الخاصة. فقدرات النظام بأكمله محدودة في نهاية المطاف بالمنطق المتأصل في نموذج التعلم الخطي الجامد. يمكنك تزويد جراح بمشرط أكثر حدة، لكن لا يمكنك إجبار شخص غير جراح على إجراء جراحة قلب مفتوح. علاوة على ذلك، يصبح تنسيق مجموعة متنامية من الأدوات التكيفية تحديًا معقدًا للتكامل. قد تُحسّن الأداة (أ) أداءها وفقًا لمقياس واحد يتعارض مع متطلبات إدخال الأداة (ب). عندها يعتمد أداء النظام على توازن دقيق بين مكوناته المترابطة.
تحدي التكيف المشترك
يقودنا هذا إلى جوهر قصور التكيف في نماذج الذكاء الاصطناعي الحالية القائمة على الوكلاء. فنحن إما نُكيّف الوكيل أو الأدوات، ولكن ليس كليهما بطريقة متزامنة ومستقرة. بيئات الإنتاج ليست ثابتة، إذ تظهر باستمرار بيانات جديدة ومتطلبات مستخدمين جديدة وأدوات جديدة. نظام الذكاء الاصطناعي الذي لا يستطيع تطوير كل من "عقله" و"أيديه" بسلاسة وأمان سينهار حتماً.
الباحثين تحديد تُعدّ هذه الحاجة إلى التكيف المشترك بمثابة الأفق التالي. ومع ذلك، فهو تحدٍّ معقد. فإذا كان كلٌّ من النظام وأدواته يتعلمان في آنٍ واحد، فمن الذي سيتعلم؟ يحصل هل يُعزى الفشل إلى أحد أم إلى آخر؟ كيف يمكن تجنب حلقة التغذية الراجعة غير المستقرة حيث يسعى كل من البرنامج والأدوات إلى تطبيق تغييرات الآخر دون تحسين الأداء العام؟ وقد ساهمت المحاولات المبكرة في هذا الصدد، مثل التعامل مع العلاقة بين البرنامج والأداة كـ نظام متعدد العوامل تعاوني، مما يكشف عن الصعوبة. فبدون حلول قوية لتخصيص الائتمان والاستقرار، حتى أكثر تقنيات الذكاء الاصطناعي تطوراً لدينا ستظل مجرد مجموعة من القدرات الرائعة ولكنها غير مترابطة.
الذاكرة كنظام من الدرجة الأولى
من أبرز علامات قصور التكيف هو الذاكرة الثابتة. فالعديد من الأنظمة المُستخدمة لا تتحسن بمرور الوقت، بل تُكرر الأخطاء نفسها لعدم قدرتها على استيعاب التجارب، حيث تُعامل كل تفاعلات وكأنها الأولى.
تتطلب بيئات الإنتاج الذاكرة التكيفيةيحتاج العملاء إلى ذاكرة عرضية للتعامل مع المهام طويلة المدى، وذاكرة استراتيجية لتحسين الخطط، وذاكرة تشغيلية لتجنب تكرار الإخفاقات. وبدون ذلك، يشعرون بالهشاشة وعدم الجدارة بالثقة.
ينبغي التعامل مع الذاكرة كمكون قابل للتعديل، لا كمجرد سجل سلبي. فالأنظمة التي تراجع التجارب، وتتعلم من الأخطاء، وتُعدّل سلوكها، تكون أكثر استقراراً بكثير.
مخاطر جديدة من الأنظمة التكيفية
يُدخل التكيف مخاطره الخاصة. يمكن للوكلاء أن يتعلموا تحسين المقاييس بدلاً من الأهداف، وهي ظاهرة تُعرف باسم التكيف الطفيليقد تبدو هذه الأدوات ناجحة ظاهريًا، بينما تقوّض الهدف الأساسي. في أنظمة الوكلاء المتعددين، يمكن للأدوات المخترقة أن... عملاء التلاعب من خلال التلميح الحقن الفوري أو بيانات مضللة. وللحد من هذه المخاطر، تتطلب الأنظمة آليات تحقق قوية. يجب أن تكون الإجراءات قابلة للاختبار والتراجع والتدقيق. وتضمن طبقات الأمان بين الأنظمة والأدوات عدم انتشار الأخطاء دون علم المستخدم.
الخط السفلي
لكي ينجح الذكاء الاصطناعي القائم على الوكلاء في العالم الحقيقي، لا يكفي أن يكون ذكيًا فحسب، بل يجب أن يكون قادرًا على التكيف. تفشل معظم الوكلاء اليوم لأنها "متجمدة" في الزمن، بينما العالم الحقيقي معقد ومتغير باستمرار. إذا لم يتمكن الذكاء الاصطناعي من تحديث ذاكرته والتعلم من أخطائه، فسيتعطل في النهاية. لا تتحقق الموثوقية من خلال عرض توضيحي مثالي، بل من خلال القدرة على التكيف.












