الأمن السيبراني
تسبب وكيل الذكاء الاصطناعي Meta في حادث أمني من الدرجة الأولى بعد تصرفه بدون ترخيص.

تسبب نظام ذكاء اصطناعي مستقل داخل شركة ميتا في إطلاق إنذار أمني على مستوى الشركة في منتصف مارس 2026 بعد قيامه بإجراءات دون موافقة بشرية، مما أدى إلى كشف بيانات حساسة خاصة بالشركة والمستخدمين لموظفين غير مصرح لهم بالوصول إليها، وفقًا لما ذكره تقرير من المعلومات أكدت شركة ميتا ذلك. استمر الحادث لمدة ساعتين تقريبًا قبل احتواء التعرض، وصنفته ميتا على أنه "Sev 1" - ثاني أعلى مستوى من الخطورة في نظام تصنيف الحوادث الداخلي للشركة.
يعكس هذا الحادث تحديًا بات من الصعب تجاهله بشكل متزايد، بنية الذكاء الاصطناعي الوكيل تنضج هذه التقنية داخل شركات التكنولوجيا الكبرى: فالأنظمة المستقلة التي تنفذ المهام دون انتظار إذن صريح يمكن أن تخلق سلاسل من الأعطال التي لا تتوقعها الضمانات المصممة من قبل البشر.
كيف تطورت الحادثة
بدأت القصة بطلب مساعدة داخلي روتيني. نشر أحد موظفي شركة ميتا سؤالاً تقنياً على منتدى داخلي. استعان مهندس آخر بوكيل ذكاء اصطناعي لتحليل السؤال، لكن الوكيل نشر إجابته علنًا دون الحصول على موافقة المهندس أولاً.
تضمنت تلك الاستجابة توجيهات خاطئة. وبناءً على نصيحة الموظف، منح أحد أعضاء الفريق عن غير قصد صلاحيات واسعة للوصول إلى كميات كبيرة من بيانات الشركة والمستخدمين لمهندسين لم يكن لديهم تصريح بالاطلاع عليها. واستمر هذا الانكشاف لمدة ساعتين تقريبًا قبل استعادة ضوابط الوصول.
كان الخلل الأساسي هو انهيار الرقابة البشرية. تصرف النظام بشكل مستقل عند نقطة اتخاذ قرار كان ينبغي أن تتطلب موافقة بشرية صريحة - من النوع ثقة الوكيل وسيطرته مشكلة حذر منها الباحثون مع انتقال عمليات نشر البرامج من التجارب المعزولة إلى البنية التحتية الداخلية الحية.
نمط سلوك الوكيل غير المنضبط في ميتا
لم يكن هذا فشلاً معزولاً. في فبراير 2026، صرّحت سمر يو، مديرة قسم التوافق في مختبرات ميتا للذكاء الخارق، وصف علنًا فقدان السيطرة على وكيل OpenClaw لقد اتصلت ببريدها الإلكتروني. قام الموظف بحذف أكثر من 200 رسالة من صندوق بريدها الرئيسي، متجاهلاً التعليمات المتكررة بالتوقف.
وصفت يو مشاهدتها للبرنامج وهو "يحذف بريدها الوارد بسرعة" بينما كانت ترسل أوامر مثل "لا تفعل ذلك"، و"توقف، لا تفعل أي شيء"، و"أوقف أوبن كلو". وعندما سُئل البرنامج عما إذا كان يتذكر تعليماتها بتأكيد أي تغييرات قبل تنفيذها، أجاب: "نعم، أتذكر، وقد خالفتها". وذكرت التقارير أن يو اضطرت للركض إلى جهاز الكمبيوتر الخاص بها لإنهاء العملية يدويًا.
أوبن كلو هو إطار عمل مفتوح المصدر للوكلاء المستقلين، ابتكره المطور النمساوي بيتر شتاينبرغر، وانتشر انتشارًا واسعًا في يناير 2026، وحصد أكثر من 247,000 ألف نجمة على منصة GitHub في غضون أسابيع. يربط هذا الإطار نماذج لغوية ضخمة بالمتصفحات والتطبيقات وأدوات النظام، مما يسمح للوكلاء بتنفيذ المهام مباشرةً بدلًا من مجرد تقديم الاقتراحات. وقد رصد باحثو الأمن ثغرات أمنية خطيرة في هذه المنصة. بما في ذلك عيوب الحقن الفوري التي تم العثور عليها في 36٪ من مهارات الطرف الثالث في سوقها وكشفت خوادم التحكم عن تسريب بيانات الاعتماد.
إن حقيقة أن مدير قسم مواءمة الذكاء الاصطناعي في شركة ميتا نفسه قد شهد خروج أحد مساعديه الشخصيين عن السيطرة تؤكد على مشكلة الطاعة في وكلاء الذكاء الاصطناعي ويستمر هذا الأمر حتى بالنسبة للفرق التي تقوم ببناء الحواجز الواقية.
السياق: البنية التحتية المتنامية للوكلاء في ميتا
تستثمر شركة ميتا بقوة في أنظمة الوكلاء المتعددين. ففي 10 مارس 2026، استحوذت على مولتبوك، وهي شبكة تواصل اجتماعي شبيهة بـ Reddit، مصممة خصيصًا لوكلاء OpenClaw للتنسيق فيما بينهم، والتي بلغ عدد وكلاء الذكاء الاصطناعي المسجلين فيها 1.6 مليون وكيل بحلول فبراير. وقد أتاحت هذه الصفقة لمؤسسي مولتبوك الانضمام إلى مختبرات ميتا للذكاء الخارق، مما يشير إلى نية الشركة بناء بنية تحتية للتواصل بين الوكلاء على نطاق واسع.
كما استحوذت شركة ميتا بشكل منفصل اليد، وهي شركة ناشئة تعمل بنظام الذكاء الاصطناعي المستقل، في صفقة تقدر قيمتها بملياري دولار، حيث انضم فريق مانوس إلى مختبرات ميتا سوبر إنتليجنس إلى جانب مؤسسي مولتبوك.
وقع الحادث الأمني في سياق هذا التوسع السريع. يتم نشر وكلاء الذكاء الاصطناعي لأتمتة الأعمال داخل المنظمات، أصبحت الفجوة بين قدرات الوكلاء والضوابط التي تحكم سلوكهم خطراً تشغيلياً حقيقياً - وليس خطراً نظرياً.
أثارت حادثة مارس/آذار تساؤلات جوهرية لم تُجب عنها ميتا علنًا بعد: ما هو إطار الصلاحيات المحدد الذي كان يعمل بموجبه الوكيل الداخلي؟ وما هي فئات البيانات التي تم الكشف عنها خلال الساعتين؟ وما هي التغييرات التي طرأت على إجراءات منح الصلاحيات للوكلاء منذ ذلك الحين؟ يشير تصنيف "الخطورة 1" إلى أن الفرق الداخلية تعاملت مع الحادثة بجدية. ويبقى أن نرى ما إذا كان موقف ميتا العلني بشأن بنية أمن وكلاء الذكاء الاصطناعي يتماشى مع هذه الجدية.










