Connect with us

الذكاء الاصطناعي الذي يعلم نفسه لم يعد خيالًا علميًا

الذكاء الاصطناعي

الذكاء الاصطناعي الذي يعلم نفسه لم يعد خيالًا علميًا

mm

تتحرك الإطارات الذكية الناشئة نحو قفزة ثورية: آلات يمكنها تحسين نفسها ، دون الحاجة إلى رؤية إنسانية.

لم يكن حتى الآن ، وحتى أكثر النماذج الذكية المتقدمة ، محركات غير نشطة ، تتنبأ بالاستجابات بناءً على بيانات تدريبية لا يمكنها تعديلها. ولكن اليوم ، ليس حجم النموذج الذي يحدد الفصل التالي من الذكاء الاصطناعي ، بل ما إذا كان النموذج يمكن أن يتحول بنفسه.

最近 ، كشف باحثون في معهد ماساتشوستس للتكنولوجيا (MIT) عن إطار جديد للذكاء الاصطناعي يسمى Self-Adapting LLMs (SEAL). يسمح هذا النهج للنماذج اللغوية الكبيرة (LLMs) بتحسين نفسها بشكل مستقل ، مما يسمح للذكاء الاصطناعي بتشخيص قيوده وتنفيذ تحديثات دائمة لوزنها العصبي من خلال حلقة ملاحظة داخلية مدفوعة بالتعلم التعزيزي. بدلاً من الحاجة إلى باحثين لاكتشاف الأخطاء ، أو كتابة محفزات جديدة ، أو إطعام أمثلة إضافية ، يأخذ النموذج ملكية كاملة لتطوره.

“النماذج اللغوية الكبيرة (LLMs) قوية ولكنها ثابتة ، فهي تفتقر إلى آليات للتكيف مع أوزانها استجابة للمهام الجديدة أو المعرفة أو الأمثلة” ، كتب باحثو MIT في منشور على مدونة. “تجارب على دمج المعرفة والتعلم من القليل من الأمثلة تظهر أن SEAL هو خطوة واعدة نحو نماذج لغوية قادرة على التكيف الذاتي استجابة للبيانات الجديدة”.

في الاختبارات المبكرة ، سمحت هذه الحلقة التعديلية للنماذج بالانتقال من الفشل التام إلى النجاح في أحجية التفكير المجرد المعقدة ، متغلبة على نماذج أكبر مثل GPT-4.1 بنسبة نجاح 72.5 في المائة ، حيث فشلت الطرق التقليدية. بالإضافة إلى ذلك ، يُreported أن SEAL يقلل من الرقابة البشرية بنسبة 85 في المائة مع زيادة الدقة والملاءمة.

صعود الإطارات الذكية التي تعلم نفسها

SEAL هو جزء من اتجاه أوسع نحو الذكاء الاصطناعي المستقل. قام باحثون في Sakana AI ، على سبيل المثال ، بتقديم آلة داروين-غودل– وكلاء الذكاء الاصطناعي الذين يعيدون كتابة كودهم باستخدام استراتيجيات تطور مفتوح.

“إنها تخلق تحسينات ذاتية ، مثل خطوة التحقق من التصحيح ، وعرض الملفات بشكل أفضل ، وأدوات تحرير محسنة ، وإنشاء حلول متعددة وترتيبها لاختيار الأفضل ، وإضافة تاريخ لما تم محاولته من قبل (ولما فشل) عند إجراء تغييرات جديدة” ، كتب Sakana AI في منشور على مدونة.

وبالمثل ، يمكن لوكلاء الذكاء الاصطناعي في Anthropic ، مدعومين بواسطة Claude 4، التوجيه المستقل للتدفقات عبر قواعد البيانات وأدوات الأعمال.

“نظام ي重新 يهيكل نفسه بناءً على نوع الأصل ، وبيئته ، وتاريخه يسمح بالانتقال من استجابة phảnactive إلى استراتيجية منع مستمرة” ، قال كريستيان ستروف ، الرئيس التنفيذي والشريك المؤسس في Fracttal ، لي. “ليس الأمر متعلقًا بمزيد من الطبقات أو المعلمات ، ولكن بأجهزة أكثر استقلالية وفائدة”.

ما يجمعهذه الجهود هو الاعتقاد الأساسي بأن الذكاء الاصطناعي لا يحتاج إلى أن يصبح أكبر ليكون أكثر ذكاء. إنه يحتاج إلى أن يصبح أكثر ملاحة.

“لقد أتت التوسعة بمكاسب كبيرة ، ولكننا نصل إلى حدود ما يمكن أن تحققه الحجم وحده. تقدم نماذج التعلم الذاتي مثل SEAL خطوة مقنعة التالية من خلال تمكين الأنظمة من النمو والتحسين مع مرور الوقت” ، قال خورخي ريرا ، المؤسس والرئيس التنفيذي لمنصة استشارات البيانات الكاملة Dataco ، لي. “نماذج التطور الذاتي تغير أيضًا مقاييس التقدم من معايير ساكنة إلى مقاييس ملاحة ، وكفاءة التعلم ، والتحسين الآمن على المدى الطويل. بدلاً من اختبار ما يعرفه النموذج عند النشر ، يمكننا تقييم كيف يتعلم ، ويحتفظ ، ويتطور مع مرور الوقت”.

التأثير على النظام البيئي للذكاء الاصطناعي والسباق العالمي نحو الاستقلالية

يغير هذا المستوى من الاستقلالية أيضًا اقتصاديات نشر الذكاء الاصطناعي. تخيل أنظمة كشف الاحتيال التي تحدث نفسها على الفور لمواجهة التهديدات الجديدة ، أو معلمي الذكاء الاصطناعي الذين يغيرون أسلوب تعليمهم بناءً على سلوك الطالب. في الروبوتات ، يمكن أن تؤدي الإطارات التكيفية الذاتية إلى آلات مستقلة تعلم أنماط حركة جديدة دون الحاجة إلى إعادة برمجة.

في جميع أنحاء الشرق الأوسط ، تقوم دول مثل الإمارات العربية المتحدة والمملكة العربية السعودية ببناء نماذج أساسية مصممة للتكيف. Falcon و Jais هما نماذج لغوية مفتوحة المصدر مبنية مع مراعاة الأهمية الإقليمية ، بينما Aramco Digital’s Metabrain تدفع إلى مجال وكلاء الذكاء الاصطناعي المستقلين للمدن الذكية والرعاية الصحية واللوجستيات.

هذه الجهود ليست متساوية مع SEAL من حيث القدرة على التعديل الذاتي ، ولكنها تعكس مسارًا مشتركًا: من أنظمة الذكاء الاصطناعي الساكنة إلى وكلاء نشطين يتحولون يمكنهم التنقل في التعقيد مع توجيه بشري محدود. ومثل SEAL ، هذه المبادرات مدعومة بإطارات حوكمة قوية ، مما يبرز الوعي المتزايد بأن استقلالية الذكاء الاصطناعي يجب أن ترافق مع المسؤولية.

“هذه هي الخطوة الأولى نحو أنظمة تدير نفسها التي تغير منطقها دون 幹dervention مستمرة” ، يقول ستروف. “أعتقد أن الذكاء الاصطناعي لا يعيد تعريف ما هو الذكاء ، ولكنه يضطرنا إلى إعادة التفكير في علاقتنا معه. الشيء المهم ليس أن النموذج يتطور ، ولكن أنه يفعل ذلك في إطار الأهداف التي نحددها نحن البشر”.

يؤكد جيف تاونز ، كبير مسؤولي التكنولوجيا في Gorilla Logic ، على أهمية الحوكمة في مواكبة تطور الذكاء الاصطناعي: “السؤال ليس ما إذا كان الذكاء الاصطناعي يمكن أن يتطور – بل ما إذا كان يمكن للمؤسسة أن تتطور معه. يجب أن ترسخ الحوكمة كل تعديل للذكاء الاصطناعي إلى نتائج واضحة ومقاييس يمكنقياسها التي يمكن للقادة قياسها وثقة بها ، بحيث تتطور الابتكارات بثقة بدلاً من المخاطر”.

هل نحن مستعدون للذكاء الاصطناعي الذي يعيد كتابة نفسه؟

الأسئلة الأكثر إثارة للجدل التي يثيرها SEAL ليست تقنية – بل ما إذا كان النماذج يمكن أن تقرر كيفية تعليم نفسها ، ما هو الدور الذي نلعبونه في تشكيل قيمها وأولوياتها واتجاهها؟

يحذر الخبراء من أن مع زيادة استقلالية أنظمة الذكاء الاصطناعي ، يجب ألا يتجاوز السعي نحو التحسين الذاتي إنشاء حواجز أخلاقية. “أعتقد أن جميع أنظمة الذكاء الاصطناعي يجب أن تدمج ثلاثة مبادئ أخلاقية أساسية” ، يقول جاكوب إيفانز ، كبير مسؤولي التكنولوجيا في Kryterion.

“أولاً ، وربما يبدو واضحًا ، ولكن الذكاء الاصطناعي يحتاج إلى تحديد نفسه كذكاء اصطناعي. ثانيًا ، يجب أن يكون الذكاء الاصطناعي مركزًا على الإنسان ، ويضيف ويحسن الحكم البشري. وأخيرًا ، يجب أن يعترف بقيوده وعدم اليقين ، ورفض تقديم المعلومات التي يمكن أن تسهل الأذى الجدي. بدون هذه الحماية ، يمكن للذكاء الاصطناعي أن يصبح أداة للتلاعب بدلاً من دعم موثوق”.

“لتمكين النماذج من التحسين الذاتي في الإنتاج ، يحتاجون إلى حلقة ملاحظة ديناميكية ، وليس فقط تدريبًا ساكنًا. طريقة قوية هي استخدام “التوأم الرقمي” أو بيئة محاكاة متقدمة حيث يمكن للذكاء الاصطناعي اختبار وتحقق من تحسيناته الذاتية التي يولدها قبل نشرها إلى المستخدمين” ، قال غانيش فاناما ، مهندس رؤية حاسوبية في Automotus.

فيما يتعلق بالحوكمة ، أضاف فاناما ، “السيطرة غير القابلة للتفاوض هي الرقابة البشرية في الحلقة”. قال إننا نريد من النماذج أن تتكيف ، “لكن يجب أن يكون هناك مراقبة مستمرة لاكتشاف ‘انحراف الانطباق’ حيث يتحول النموذج عن أهدافه أو قيود الأمان المحددة. يجب أن تمنح هذه الأنظمة لمحقق بشري صلاحية الفيتو أو التراجع الفوري لأي تحديث مستقل يفشل في مراجعة الأمان أو الأداء”.

لكن بعض الخبراء يعتقدون أنه لا يزال هناك وقت لتطوير هذه الحماية ، بحجة أن بناء ذكاء اصطناعي قوي ومستقل حقًا لا يزال تحديًا هائلا.

“هذه النماذج لا تزال تفتقر إلى القدرة على إعادة برمجة نفسها بشكل موثوق في الوقت الفعلي. لا يزال هناك تحديات رئيسية ، بما في ذلك منع تعزيز الأخطاء ، وتجنب النسيان الكارثي ، وضمان الاستقرار أثناء التحديث ، والحفاظ على الشفافية حول التغييرات الداخلية” ، يقول ريرا. “حتى يتم حل هذه المشاكل ، يبقى التكيف الذاتي الكامل على حدود الواقع وليس حقيقة”.

ي看到 باحثو MIT SEAL كتطور ضروري. كما قال أحد علماء MIT الرائدين ، فإن هذا الإطار يُ 镜 像 التعلم البشري أكثر من أي شيء سبق.

“تلمح هذه الأنظمة إلى تحول من نماذج ساكنة إلى هياكل متكيفة يمكنها التعلم من الخبرة ، وإدارة الذاكرة ، والعمل على أهداف مع مرور الوقت. الاتجاه واضح: نحو ذكاء متكيف ومدرك للسياق يمكنه تعديل نفسه بشكل مستمر” ، قال ريرا لي. “على الرغم من أنها لا تزال في مرحلة التجربة ، فإن هذا النهج يعتبر خطوة مهمة نحو أنظمة ذكاء اصطناعي أكثر استقلالية ومتانة”.

ما إذا كان هذا سيؤدي إلى أنظمة أكثر شخصنة أو أشكال جديدة تمامًا من وكالة الآلة يبقى أن نرى. عصر الذكاء الاصطناعي الذي يعلم نفسه قد وصل – وهو يغير أكثر من مجرد كوده ، إنه يغير قواعد ما يمكن أن يصبح به الآلات.

فيكتور دي هو محرر تقني وكاتب يغطي الذكاء الاصطناعي والعملات المشفرة وعلوم البيانات والميتافيرس وأمن السيبراني في نطاق المؤسسات. يفتخر بخمسة أعوام من الخبرة في الإعلام والذكاء الاصطناعي في وسائل إعلام مشهورة مثل VentureBeat و Metaverse Post و Observer وغيرها. لقد درّب فيكتور مؤسسين طلاب في برامج تسريع في جامعات رائدة مثل جامعة أوكسفورد وجامعة جنوب كاليفورنيا، وحاصل على ماجستير في علوم البيانات والتحليلات.