Connect with us

تعترف OpenAI بأن متصفحات الذكاء الاصطناعي قد لا تكون آمنة تمامًا أبدًا

الأمن السيبراني

تعترف OpenAI بأن متصفحات الذكاء الاصطناعي قد لا تكون آمنة تمامًا أبدًا

mm

نشرت OpenAI منشورًا على مدونة الأمان في 22 ديسمبر يحتوي على إعتراف ملحوظ: قد لا يتم حل هجمات الحقن الإلهائي ضد متصفحات الذكاء الاصطناعي “أبدًا”. يأتي هذا الإعتراف بعد شهرين فقط من إطلاق الشركة ChatGPT Atlas، متصفحها الذي يتمتع بقدرات وكيل ذاتي.

قارنت الشركة الحقن الإلهائي بـ “الاحتيال والهندسة الاجتماعية على الويب” – تهديدات مستمرة التي يديرها المدافعون بدلاً من القضاء عليها. لمستخدمي الوكلاء الإلهائيين الذين يثقون في المتصفحات للتنقل في الإنترنت نيابة عنهم، يثير هذا الإطار أسئلة أساسية حول مقدار الاستقلالية المناسبة.

ما كشفت عنه OpenAI

يصف المنشور على المدونة هيكل الدفاع الخاص بشركة OpenAI لمتصفح Atlas، بما في ذلك “مهاجم آلي” مدعوم بالتعلم التعزيزي الذي يبحث عن نقاط الضعف قبل أن يجد المهاجمون الخبيثون إليهم. تدعي الشركة أن فريقها الداخلي الأحمر اكتشف “استراتيجيات هجوم جديدة لم تظهر في حملة اختبار الفريق الأحمر البشري أو التقارير الخارجية”.

أظهرت إحدى التجارب كيف يمكن لبريد إلكتروني خبيث أن يخترق وكيل إلهائي يتحقق من صندوق الوارد للمستخدم. بدلاً من صياغة رسالة خارج المكتب كما هو موضح، أرسل الوكيل المخترق رسالة استقالة. تقول OpenAI أن تحديث الأمان الأخير يلتقط الآن هذا الهجوم – ولكن المثال يظهر المخاطر عندما يعمل وكلاء إلهائيون بشكل مستقل في سياقات حساسة.

يمكن للمهاجم الآلي “توجيه وكيل إلى تنفيذ سير عمل ضارة معقدة وطويلة الأفق تنتشر على عشرات (أو حتى مئات) الخطوات”، كما كتبت OpenAI. تساعد هذه القدرة OpenAI على العثور على عيوب أسرع من المهاجمين الخارجيين، ولكنها تكشف أيضًا عن كيف يمكن أن تصبح هجمات الحقن الإلهائي معقدة ومضررة.

صورة: OpenAI

المشكلة الأمنية الأساسية

تستغل هجمات الحقن الإلهائي محدودية أساسية للنماذج اللغوية الكبيرة: لا يمكنها التمييز بشكل موثوق بين الإرشادات الشرعية والمحتوى الخبيث المضمن في البيانات التي تمت معالجتها. عندما تقرأ متصفح إلهائي صفحة ويب، يمكن أن يؤثر أي نص على تلك الصفحة على سلوكه.

أثبت باحثو الأمان هذا مرارًا وتكرارًا. تجمع متصفحات الذكاء الاصطناعي بين الاستقلالية المعتدلة والوصول العالي – موقف صعب في مجال الأمان.

لا تتطلب الهجمات تقنيات متقدمة. يمكن أن يخدع النص المخفي على صفحات الويب أو البريد الإلكتروني أو الإرشادات غير المرئية في المستندات وكلاء إلهائيين لتنفيذ أفعال غير مقصودة. أظهر بعض الباحثين أن التحفيزات الخبيثة المخفية في لقطات الشاشة يمكن أن تنفذ عند قيام الذكاء الاصطناعي بتصوير شاشة المستخدم.

كيف تستجيب OpenAI

تتضمن دفاعات OpenAI نماذج مدربة بشكل عدوى، وتصنيفات حقن الإرشادات، و “عقبات” تتطلب تأكيد المستخدم قبل الإجراءات الحساسة. توصي الشركة للمستخدمين بتحديد ما يمكن لمتصفح Atlas الوصول إليه – تقييد الوصول المُسجل، وتطلب التأكيد قبل الدفعات أو الرسائل، وتقديم تعليمات ضيقة بدلاً من التوجيهات الواسعة.

يُظهر هذا التوصية. تنصح OpenAI بشكل أساسي بمعاملة منتجها الخاص بالشك، وتنقيص الاستقلالية التي تجعل متصفحات الوكيل جذابة في المقام الأول. يفترض المستخدمون الذين يريدون متصفحات إلهائية لتولي صندوق الوارد أو إدارة أموالهم مخاطر لا تدعمها الشركة نفسها.

يقلل تحديث الأمان من هجمات الحقن الناجحة. هذا التحسين مهم، ولكنه يعني أيضًا أن السطح المهاجم المتبقي يستمر – وسيتكيف المهاجمون مع أي دفاعات تنشرها OpenAI.

الآثار على مستوى الصناعة

OpenAI ليست seule في مواجهة هذه التحديات. يتضمن إطار الأمان الخاص بشركة جوجل لميزات الوكيل في متصفح كروم طبقات دفاع متعددة، بما في ذلك نموذج إلهائي منفصل يفحص كل إجراء مقترح. واجه متصفح Comet من Perplexity فحصًا مشابهًا من قبل باحثي الأمان في Brave، الذين وجدوا أن التنقل إلى صفحة ويب خبيثة يمكن أن يؤدي إلى إجراءات إلهائية ضارة.

يبدو أن الصناعة تتقارب على فهم مشترك: الحقن الإلهائي هو محدودية أساسية، وليس خطأً يمكن تصحيحه. لهذا تأثيرات كبيرة على رؤية وكلاء إلهائيين يديرون مهام معقدة وحساسة بشكل مستقل.

ما يجب أن يعتبره المستخدمون

التقييم الصادق هو غير مريح: متصفحات الذكاء الاصطناعي هي أدوات مفيدة ذات قيود أمنية متأصلة لا يمكن إliminationها من خلال هندسة أفضل. يواجه المستخدمون ترادوفًا بين الراحة والمخاطر التي لا يمكن لمورد حلها تمامًا.

توصية OpenAI – تحديد الوصول، وتطلب التأكيد، وتجنب التوجيهات الواسعة – تعادل نصيحة لاستخدام إصدارات أقل قوة من المنتج. هذه ليست موقفًا سينيكياً؛ إنه إعتراف واقعي بالقيود الحالية. مساعدي الذكاء الاصطناعي الذين يمكنهم فعل المزيد يمكن أيضًا أن يُخدعوا ليفعلوا المزيد.

التوازي مع أمان الويب التقليدية هو مفيد. لا يزال المستخدمون يقعون فريسة للهجمات الاحتيالية عقودًا بعد ظهورها. لا يزال المتصفحات تحجب ملايين المواقع الخبيثة يوميًا. يتكيف التهديد بشكل أسرع من الدفاعات التي يمكن حلها بشكل دائم.

تضيف متصفحات الذكاء الاصطناعي بعدًا جديدًا إلى هذا الديناميكية المألوفة. عندما يتصفح البشر، يأتون بالحكم حول ما يبدو مشبوهًا. يعالج وكلاء إلهائيون كل شيء بثقة متساوية، مما يجعلهم أكثر عرضة للخداع حتى مع نموهم أكثر قدرة.

المسار الأمامي

تستحق شفافية OpenAI الاعتراف. يمكن للشركة أن تنشر تحديثات أمان بشكل هادئ دون الإعتراف بمواصلة المشكلة الأساسية. بدلاً من ذلك، نشرت تحليلًا مفصلًا لVectors الهجومية وهياكل الدفاع – معلومات تساعد المستخدمين على اتخاذ قرارات مستنيرة وتنافسي تحسين حمايةهم الخاصة.

لكن الشفافية لا تحل التوتر الأساسي. كلما أصبحت وكلاء إلهائيون أكثر قوة، كلما أصبحوا أهدافًا أكثر جاذبية. نفس القدرات التي تسمح لمتصفح Atlas بمعالجة سير عمل معقدة تخلق أيضًا فرصًا للهجمات المتطورة.

لمستخدمي متصفحات الذكاء الاصطناعي يجب أن يعتبروها أدوات قوية ذات قيود معنوية – وليس مساعدين رقميين كاملين جاهزين لتولي المهام الحساسة دون إشراف. لقد كانت OpenAI غير عادية في وضوحها حول هذا الواقع. السؤال هو ما إذا كان التسويق في الصناعة سيلحق بما يعرفه فرق الأمان بالفعل.

Alex McFarland هو صحفي وكاتب في مجال الذكاء الاصطناعي يستكشف أحدث التطورات في الذكاء الاصطناعي. وقد تعاون مع العديد من الشركات الناشئة في مجال الذكاء الاصطناعي والمنشورات في جميع أنحاء العالم.