اتصل بنا للحصول على مزيد من المعلومات

أقرت منظمة OpenAI بأن متصفحات الذكاء الاصطناعي قد لا تكون آمنة تمامًا أبدًا

الأمن السيبراني

أقرت منظمة OpenAI بأن متصفحات الذكاء الاصطناعي قد لا تكون آمنة تمامًا أبدًا

mm

نشرت OpenAI ملف تدوينة عن الأمن في 22 ديسمبر، تضمن البيان اعترافاً لافتاً: أن هجمات الحقن الفوري ضد متصفحات الذكاء الاصطناعي "قد لا تُحل بالكامل أبداً". ويأتي هذا الاعتراف بعد شهرين فقط من إطلاق الشركة أطلس ChatGPT، ومتصفحه المزود بإمكانيات الوكيل المستقل.

قارنت الشركة بين الحقن الفوري و"عمليات الاحتيال والهندسة الاجتماعية على الإنترنت" - وهي تهديدات مستمرة يديرها المدافعون بدلاً من القضاء عليها. بالنسبة للمستخدمين الذين يثقون في وكلاء الذكاء الاصطناعي لتصفح الإنترنت نيابةً عنهم، يثير هذا التأطير تساؤلات جوهرية حول مدى ملاءمة منحهم هذه الاستقلالية.

ما كشفته OpenAI

تصف مدونة الشركة بنية الحماية التي طورتها OpenAI لمنصة Atlas، بما في ذلك "مهاجم آلي" مدعوم بتقنية التعلم المعزز، يبحث عن الثغرات الأمنية قبل أن يكتشفها المهاجمون. وتزعم الشركة أن فريقها الداخلي لاختبار الثغرات الأمنية قد اكتشف "استراتيجيات هجومية جديدة لم تظهر في حملة اختبار الثغرات الأمنية التي أجراها فريقنا البشري أو في التقارير الخارجية".

أظهر أحد العروض التوضيحية كيف يمكن لرسالة بريد إلكتروني خبيثة أن تخترق نظام ذكاء اصطناعي يقوم بفحص صندوق بريد المستخدم. فبدلاً من كتابة رد تلقائي كما هو مُبرمج، أرسل النظام المُخترق رسالة استقالة. وتؤكد OpenAI أن آخر تحديث أمني لها يكشف هذا النوع من الهجمات، لكن هذا المثال يُوضح خطورة الوضع عندما تتصرف أنظمة الذكاء الاصطناعي بشكل مستقل في سياقات حساسة.

أوضحت OpenAI أن المهاجم الآلي "يستطيع توجيه برنامجٍ ما لتنفيذ عملياتٍ ضارةٍ معقدةٍ وطويلة الأمد، تمتد عبر عشرات (أو حتى مئات) الخطوات". تُساعد هذه القدرة OpenAI على اكتشاف الثغرات بشكلٍ أسرع من المهاجمين الخارجيين، لكنها تكشف أيضاً مدى تعقيد هجمات حقن التعليمات البرمجية وخطورتها.

الصورة: OpenAI

مشكلة الأمن الأساسية

يستغلّ حقن التعليمات البرمجية قيدًا أساسيًا في نماذج اللغة الكبيرة: عدم قدرتها على التمييز بدقة بين التعليمات المشروعة والمحتوى الضارّ المُضمّن في البيانات التي تعالجها. فعندما يقرأ متصفح الذكاء الاصطناعي صفحة ويب، يُمكن لأي نصّ على تلك الصفحة أن يؤثر على سلوكه.

لقد أثبت باحثو الأمن ذلك مرارًا وتكرارًا. تجمع متصفحات الذكاء الاصطناعي بين مستوى معتدل من الاستقلالية ومستوى عالٍ جدًا من الوصول، وهو وضع صعب في مجال الأمن.

لا تتطلب هذه الهجمات تقنيات معقدة. يمكن التلاعب بالنصوص المخفية على صفحات الويب، أو رسائل البريد الإلكتروني المصممة بعناية، أو التعليمات غير المرئية في المستندات. وكلاء منظمة العفو الدولية قد تؤدي إلى تنفيذ إجراءات غير مقصودة. وقد أظهر بعض الباحثين أن الرسائل الخبيثة المخفية في لقطات الشاشة يمكن أن تُنفذ عندما يلتقط الذكاء الاصطناعي صورة لشاشة المستخدم.

كيف تستجيب OpenAI

تشمل آليات الحماية لدى OpenAI نماذج مُدرَّبة ضد هجمات خصومية، ومصنفات حقن فورية، و"حواجز أمان" تتطلب تأكيد المستخدم قبل اتخاذ أي إجراءات حساسة. وتوصي الشركة المستخدمين بتقييد ما يمكن لـ Atlas الوصول إليه، وذلك بتقييد الوصول المُسجَّل، واشتراط التأكيد قبل عمليات الدفع أو الرسائل، وتقديم تعليمات محددة بدلاً من أوامر عامة.

هذه التوصية تكشف الكثير. تنصح OpenAI أساسًا بالتعامل مع منتجها بحذر، مما يحد من الاستقلالية التي تجعل المتصفحات الذكية جذابة في المقام الأول. المستخدمون الذين يرغبون في أن تتولى متصفحات الذكاء الاصطناعي إدارة بريدهم الوارد بالكامل أو شؤونهم المالية يتحملون مخاطر لا تؤيدها الشركة نفسها.

يُقلل التحديث الأمني ​​من نجاح هجمات الحقن. هذا التحسن مهم، ولكنه يعني أيضاً استمرار وجود ثغرات أمنية، وسيتكيف المهاجمون مع أي دفاعات تنشرها OpenAI.

الآثار المترتبة على مستوى الصناعة

لا تُعدّ OpenAI الجهة الوحيدة التي تواجه هذه التحديات. إطار عمل أمان جوجل تتضمن ميزات الذكاء الاصطناعي في متصفح كروم طبقات دفاعية متعددة، بما في ذلك نموذج ذكاء اصطناعي منفصل يفحص كل إجراء مقترح. وقد واجه متصفح كوميت من شركة بيربلكسيتي تدقيقًا مماثلاً من باحثي الأمن في شركة بريف، الذين وجدوا أن الانتقال إلى صفحة ويب خبيثة قد يؤدي إلى تفعيل إجراءات ضارة للذكاء الاصطناعي.

يبدو أن قطاع الذكاء الاصطناعي يتجه نحو فهم مشترك: أن الحقن الفوري يمثل قيدًا أساسيًا، وليس خللًا يمكن إصلاحه. وهذا له آثار بالغة الأهمية على رؤية وكلاء الذكاء الاصطناعي وهم يتولون مهامًا معقدة وحساسة بشكل مستقل.

ما ينبغي على المستخدمين مراعاته

التقييم الصريح غير مريح: متصفحات الذكاء الاصطناعي أدوات مفيدة، لكنها تنطوي على قيود أمنية متأصلة لا يمكن التخلص منها بتحسين الهندسة. يواجه المستخدمون مفاضلة بين الراحة والمخاطرة، وهي مفاضلة لا يستطيع أي مزود حلها بالكامل.

تُعتبر توجيهات OpenAI - التي تنص على تقييد الوصول، واشتراط التأكيدات، وتجنب فرض صلاحيات واسعة النطاق - بمثابة نصيحة باستخدام نسخ أقل قوة من المنتج. وهذا ليس موقفًا انتهازيًا، بل هو اعتراف واقعي بالقيود الحالية. مساعدي منظمة العفو الدولية يمكن أيضاً التلاعب بمن يستطيع فعل المزيد ليقوم بالمزيد.

يُعدّ التشبيه بأمن الإنترنت التقليدي مُفيدًا. لا يزال المستخدمون يقعون ضحية لهجمات التصيّد الاحتيالي بعد عقود من ظهورها. ولا تزال المتصفحات تحظر ملايين المواقع الخبيثة يوميًا. يتطور التهديد بوتيرة أسرع من قدرة وسائل الحماية على القضاء عليه نهائيًا.

تُضيف متصفحات الذكاء الاصطناعي بُعدًا جديدًا لهذه الديناميكية المألوفة. فعندما يتصفح البشر، يُصدرون أحكامًا بشأن ما يبدو مُريبًا. أما برامج الذكاء الاصطناعي فتُعالج كل شيء بنفس القدر من الثقة، مما يجعلها أكثر عُرضة للتلاعب حتى مع ازدياد قدراتها.

الطريق إلى الأمام

تستحق شفافية OpenAI التقدير. كان بإمكان الشركة إصدار تحديثات أمنية بهدوء دون الاعتراف باستمرار المشكلة الأساسية. لكنها بدلاً من ذلك، نشرت تحليلاً مفصلاً لأساليب الهجوم والبنى الدفاعية، وهي معلومات تساعد المستخدمين على اتخاذ قرارات مدروسة وتساعد المنافسين على تحسين حمايتهم.

لكن الشفافية لا تحل التوتر الأساسي. فكلما ازدادت قوة أنظمة الذكاء الاصطناعي، ازدادت جاذبيتها كأهداف. فالقدرات نفسها التي تُمكّن أطلس من التعامل مع سير العمل المعقد تُتيح أيضاً فرصاً لهجمات متطورة.

في الوقت الراهن، ينبغي لمستخدمي متصفحات الذكاء الاصطناعي التعامل معها كأدوات قوية ذات حدود منطقية، لا كمساعدين رقميين مستقلين تمامًا قادرين على إنجاز المهام الحساسة دون إشراف. وقد كانت شركة OpenAI صريحة بشكل غير معتاد بشأن هذه الحقيقة. والسؤال المطروح هو: هل ستواكب جهود التسويق في هذا القطاع ما تعرفه فرق الأمن بالفعل؟

أليكس ماكفارلاند صحفي وكاتب في مجال الذكاء الاصطناعي يستكشف أحدث التطورات في مجال الذكاء الاصطناعي. لقد تعاون مع العديد من الشركات الناشئة والمنشورات في مجال الذكاء الاصطناعي في جميع أنحاء العالم.