Connect with us

نهاية تابولا راسا: كيف يغير النماذج العالمية المسبقة التدريب تعلم التعزيز

الذكاء الاصطناعي

نهاية تابولا راسا: كيف يغير النماذج العالمية المسبقة التدريب تعلم التعزيز

mm

لفترة طويلة، كانت الفكرة الأساسية في تعلم التعزيز (RL) هي أن وكلاء الذكاء الاصطناعي يجب أن يتعلموا كل مهمة جديدة من الصفر، مثل لوحة بيضاء. أدت هذه المقاربة “تابولا راسا” إلى إنجازات رائعة، مثل تعلم الذكاء الاصطناعي لألعاب معقدة. ومع ذلك، فإنها غير كفؤة بشكل لا يصدق، تتطلب كميات هائلة من البيانات والحوسبة لتعلم حتى السلوكيات البسيطة.

الآن، تحدث تحول أساسي. بدلاً من البدء من الصفر، يمكن لوكلاء الذكاء الاصطناعي استخدام نماذج عالمية مسبقة التدريب. تأتي هذه النماذج مع معرفة مدمجة عن كيفية عمل البيئات، مما يقلل بشكل كبير من البيانات والوقت اللازمين لتعلم مهام جديدة. يعكس هذا التحول اتجاهًا أكبر في الذكاء الاصطناعي، حيث غيرت النماذج الأساسية بالفعل طريقة معالجة الذكاء الاصطناعي للمهام اللغوية والرؤية.

التكلفة الخفية لتعلم من الصفر

يواجه وكلاء تعلم التعزيز التقليدية تحديًا صعبًا. يجب عليهم تعلم كيفية مظهر البيئة، وكيفية استجابتها لأفعالهم، وأي سلوكيات تؤدي إلى مكافآت. هذا العبء التعلمي هو السبب في أن المهام البسيطة غالبًا ما تتطلب ملايين التفاعلات قبل أن يؤدي الوكيل أداء جيدًا. خضعت الأنظمة على نطاق واسع مثل OpenAI Five ، والتي达到了 أداء الإنسان في دوتا 2، لتدريبات استمرت لأشهر وعدة تجديدات للتصميم. كل مرة يتغير فيها الهيكل أو الخوارزمية، يجب إعادة تدريب النموذج من الصفر، مما يجعل عملية التطوير مكلفة وطويلة بشكل لا يصدق. هذا اللاكفاءة جعلته يصعب على الباحثين بدون موارد على نطاق واسع العمل على مشاكل حوسبية ثقيلة. مقاربة تابولا راسا ت浪ب أيضًا الكثير من الحوسبة، حيث تُقذف كل ما تعلمه الوكيل بالفعل في كل مرة يتغير فيها تصميمه.

متطلبات البيانات لتعلم تابولا راسا تحديات بشكل خاص في الروبوتات. لا يمكن للروبوتات المادية جمع البيانات بنفس سرعة الروبوتات المحاكاة، مما يجعل من غير الواقعي أداء التفاعلات الملايين اللازمة للتعلم. تُضيف مخاوف السلامة طبقة أخرى من الصعوبة، حيث يجب على الروبوتات تجنب الأفعال التي قد تسبب ضررًا أو ضررًا. هذه الحدود منعت تعلم التعزيز من التوسع في التطبيقات في العالم الحقيقي حيث يمكن أن يكون له أكبر تأثير.

نماذج العالم كمحاكاة بيئية

تأخذ نماذج العالم الإلهام من كيفية تعلم البشر. لا يبدأ الأطفال كلوحات بيضاء، يطورون فهمًا أساسيًا للفيزياء والأشخاص والمساحة قبل أن يتمكنوا من التفكير بشكل رسمي. بنفس الطريقة، يمكن لوكلاء الذكاء الاصطناعي تعلم العالم أولًا من خلال مشاهدة كميات كبيرة من البيانات مثل الصور أو مقاطع الفيديو أو المحاكاة، قبل أن يبدأوا في التعلم من خلال المكافآت.

نماذج العالم في الأساس أنظمة ذكاء اصطناعي تتعلم محاكاة كيفية سلوك البيئات. بدلاً من مجرد تعيين المراقبات إلى الأفعال، يمكنهم توقع كيف ستتغير البيئة استجابة لتلك الأفعال. يسمح هذا القدرة التنبؤية للوكلاء بتخيل سيناريوهات مختلفة واختبار أفعال ممكنة دون تجارب مكلفة في العالم الحقيقي. في جوهره، يعمل النموذج كمحاكي داخلي يمكن للوكيل استخدامه للتخطيط لأفعاله.

جاءت بعض أكبر الاكتشافات من الجمع بين التعلم الذاتي الإشرافي و التحسين التوليدي مع تعلم التعزيز. تسمح طرق مثل Dreamer و World Models و PlaNet للوكلاء بتخيل التخطيط داخل محاكياتهم الداخلية. بدلاً من التفاعل المستمر مع البيئة الحقيقية، يتدربون داخل هذه “العوالم الحلمية”، مما يجعل التعلم أكثر كفاءة.

من التعديل الدقيق إلى التدريب المسبق: تحول في نهج تعلم التعزيز

مع ظهور نماذج العالم، يخضع مجال تعلم التعزيز الآن لنفس التحول الذي غير طريقة معالجة الذكاء الاصطناعي للمهام اللغوية والرؤية. اكتسبت نماذج اللغة الكبيرة (LLM) قدرات مثيرة للإعجاب من خلال التدريب المسبق على كميات هائلة من البيانات ومن ثم التعديل الدقيق للمهام المحددة. نفس الفكرة يتم تطبيقها الآن على تعلم التعزيز: ابدأ بالتدريب العام ثم تعديل للمهام المحددة.

نماذج العالم المسبقة التدريب تغير ما يتعلمه وكلاء تعلم التعزيز في الواقع. بدلاً من محاولة معرفة كيفية عمل البيئة من الصفر، يركز الوكلاء الآن على تعديل ما يعرفونه بالفعل للمهمة المحددة. بعبارة أخرى، يتغير الهدف من تعلم العالم إلى تعلم كيفية التصرف فيه. هذا التغيير يجعل التعلم أسرع وأكثر كفاءة في البيانات. على سبيل المثال، تمكن نماذج الرؤية واللغة والفعل المسبقة التدريب مثل OpenAI’s Sora و DeepMind’s Genie الوكلاء من فهم المشاهد المعقدة وتوقع عواقب أفعالهم. يُغير هذا النهج الجديد تعلم التعزيز من متعلم مهمة واحدة إلى وكيل أساسي يمكنه التكيف بسرعة مع مجالات مختلفة مع مجرد قليل من التعديل الدقيق أو التوجيه. هذا النهج أيضًا يسمح للوكلاء بحل المهام بكميات أقل من البيانات مقارنة بالطرق التقليدية مع الحفاظ على الأداء النهائي أو تحسينه. هذا خطوة كبيرة نحو إنشاء أنظمة ذكاء اصطناعي يمكنها التعلم بسرعة والتكيف بسلاسة والعمل بكفاءة عبر مجموعة واسعة من التحديات في العالم الحقيقي.

كيف تمكن نماذج العالم من الذكاء

في جوهرها، تحول نماذج العالم الخبرة إلى تمثيلات تنبؤية مضغوطة. يمكنهم الإجابة على أسئلة مثل: “ماذا سيحدث بعد ذلك إذا فعلت X؟” أو “ما هي تسلسل الإجراءات الذي يتحقق من Y؟” تُقدم هذه القدرة التنبؤية ثلاثة مزايا رئيسية لوكلاء تعلم التعزيز:

  1. المحاكاة بدون تفاعل: يمكن للوكلاء التعلم من خلال تخيل آلاف المستقبلات المحتملة داخل نموذجهم العالمي، مما يقضي على استكشاف العالم الحقيقي المكلف.
  2. التخطيط والاستدلال: مع نموذج داخلي، يمكن للوكيل تقييم النتائج على المدى الطويل واتخاذ قرارات تتجاوز السلوك التفاعلي.
  3. التعلم التحفيزي: منذ أن تُلتقط نماذج العالم الهيكل العام، يمكن إعادة استخدامها عبر مهام متنوعة، مما يقلل بشكل كبير من تكاليف إعادة التدريب.

النظام البيئي الناشئ للوكلاء المسبقين التدريب

إحدى أكثر القدرات إثارة للإعجاب لنماذج العالم المدربة جيدًا هي حل المهام بدون طلقات. في تعلم التعزيز بدون طلقات، يمكن للوكيل التعامل مع مهام جديدة على الفور دون تدريب أو تخطيط إضافي. هذا تحول أساسي من تعلم التعزيز المعتمد على المكافأة إلى وكلاء يمكن التحكم فيهم يتبعون تعليمات عشوائية. يمكن لوكلاء هذه الأنواع التكيف مع أهداف مختلفة من خلال تخيل سيناريوهات مثل كيفية استخدام نماذج اللغة الكبيرة للتعليم لتنفيذ مهام مختلفة.

يتشكل نظام بيئي كامل حول هذا المفهوم. تقوم معاملات بحث رائدة ببناء وكلاء أساسيين عامين يمكنهم العمل عبر النص والرؤية والروبوتات والمحاكاة. المشاريع مثل OpenAI’s Sora و Google DeepMind’s World Model RL هي الأمثلة الأولى على هذه الوكلاء. تدمج هذه الأنظمة الإدراك متعدد الوسائط والذاكرة والتحكم في إطار موحد يمكنه التفكير في البيئات المادية والرقمية.

في نفس الوقت، يزيد ظهور تعلم التعزيز كخدمة (RLaaS) من توافر هذه الأدوات على نطاق واسع. بدلاً من بناء وكلاء من الصفر، يمكن للمطورين تعديل نماذج قرار مسبقة التدريب للاستخدام في الروبوتات والألعاب والتحكم الصناعي. هذا يشبه كيف قام LLM-as-a-Service بتحويل التطبيقات اللغوية. تُغير هذه التطورات التركيز من “تدريب وكيل” إلى “نشر الذكاء”، مما يقلل من حواجز الدخول ويوسع التطبيقات في العالم الحقيقي.

التحديات والأسئلة المفتوحة

على الرغم من إمكاناته الكبيرة، فإن نمذجة العالم المسبقة التدريب لا تزال مجالًا ناشئًا يحتوي على تحديات مفتوحة عديدة. أحد القضايا الرئيسية هو انحياز النموذج. إذا كان فهم النموذج المسبق التدريب للعالم غير كامل أو مشوه، يمكن أن يؤدي ذلك إلى تعلم سلوكيات معيبة. يُعد التوسع تحديًا آخر، حيث يتطلب بناء نماذج عالمية دقيقة لبيئات معقدة أو عالية الأبعاد أو غير متوقعة موارد حوسبية كبيرة. هناك أيضًا مشكلة التأصيل والفجوات الواقعية، حيث تُجد نماذج مدربة على بيانات محاكاة أو إنترنت في أداء موثوق به في إعدادات العالم الحقيقي المادية. أخيرًا، مع زيادة استقلالية وكلاء الذكاء الاصطناعي، تصبح القضايا الأخلاقية والسلامة أكثر أهمية، مما يجعل استكشاف آمن وتوجيه مناسب ضروريين. سيتطلب التغلب على هذه التحديات تقدمًا في مجالات مثل تفسير النموذج وتقدير عدم اليقين والتعلم الواعي للسلامة.

النقطة الأساسية

يخضع تعلم التعزيز لتحول أساسي، يتحرك بعيدًا عن تدريب الذكاء الاصطناعي من الصفر لكل مهمة جديدة. من خلال استخدام نماذج عالمية مسبقة التدريب، والتي تعمل كمحاكاة داخلية لبيئات العمل، يمكن لوكلاء الذكاء الاصطناعي الآن تعلم مهام جديدة بكميات أقل بشكل كبير من البيانات والوقت. هذا يُغير تعلم التعزيز من عملية ضيقة وغير كفؤة إلى نهج أكثر مرونة ومتوسعًا، مما يفتح الطريق لإنشاء أنظمة ذكاء اصطناعي يمكنها التعلم بسرعة والتكيف بسلاسة والعمل بكفاءة عبر مجموعة واسعة من التحديات في العالم الحقيقي.

الدكتور تيهسين زيا هو أستاذ مساعد دائم في جامعة كومساتس إسلام آباد، وحاصل على دكتوراه في الذكاء الاصطناعي من جامعة التكنولوجيا في فيينا، النمسا. يتخصص في الذكاء الاصطناعي وتعلم الآلة وعلوم البيانات ورؤية الكمبيوتر، وقدم مساهمات كبيرة من خلال منشورات في مجلات علمية مشهورة. كما قاد الدكتور تيهسين مشاريع صناعية مختلفة كمستслед رئيسي وقدم خدماته كمستشار في الذكاء الاصطناعي.