قادة الفكر
أمن الذكاء الاصطناعي ليس مكسوراً، نحن مجرد الدفاع عن الأشياء الخاطئة

تعتمد صناعة الأمن السيبراني نمطاً عند ظهور تقنية جديدة، فنبدأ فوراً ببناء جدران حولها. لقد فعلنا ذلك مع السحابة، وفعلنا ذلك مع الحاويات، والآن، نفعل ذلك مع الذكاء الاصطناعي، إلا أن هذه المرة، الجدران التي نبنيها موجودة في أماكن خاطئة تماماً.
ادخل إلى أي استعراض أمني للمشاريع اليوم، وستسمع نفس الأولويات: تأمين نماذج الذكاء الاصطناعي، حماية بيانات التدريب، التحقق من الإخراج، وتطوير مساعدين مدربين بالذكاء الاصطناعي. الشركات تتسارع لبيع أدوات “أمن الذكاء الاصطناعي” تركز حصرياً على ضوابط مستوى النموذج، مثل الحواجز، دفاعات الحقن، ومنصات مراقبة النموذج.
لكن المهاجمين يستخدمون تكاملات الذكاء الاصطناعي كطرق سريعة إلى كل شيء آخر.
مساحة الهجوم الحقيقية التي لا يراقبها أحد
نمط واحد نلاحظه باستمرار عبر بيئات المشاريع يروي قصة محزنة لأفرقة الأمن التي تستثمر بكثافة في تأمين بيئات تطوير الذكاء الاصطناعي: ضوابط الوصول إلى النموذج، إطارات الحوكمة للبيانات، أدوات أمن MLOps. هذا يمنح ثقة كاذبة بأنه تم حماية الذكاء الاصطناعي “بصورة آمنة”.
لكن عندما تخطط مساحة الهجوم الفعلية، ترى أن بوتات الدردشة بالذكاء الاصطناعي غالباً ما تحتوي على رموز OAuth لآلاف منصات SaaS، ومفاتيح API مع صلاحيات سحابية زائدة، وعلاقات ثقة يمكن أن تخلق مسارات مباشرة من حقن بسيطة إلى البنية التحتية للانتاج. النماذج نفسها قد تكون آمنة، لكن النظم البيئية التي تعيش فيها غالباً ما تكون مفتوحة على مصراعيها، وهذه ليست حالة حافة.
الشركات تستخدم الآن متوسط 130+ تطبيق SaaS، مع تكاملات الذكاء الاصطناعي التي تمتد إلى مزودي الهوية، وبنية السحابة، وقواعد البيانات، والأنظمة الحرجة للأعمال. كل تكامل هو مسار هجوم محتمل، وكل اتصال API هو حدود ثقة التي يبحث المهاجمون بشكل نشط.
المشكلة ليست أن أدوات أمن الذكاء الاصطناعي مكسورة. إنها أننا نحمي مكونات فردية بينما يستغل المهاجمون الاتصالات بينها.
لماذا يفتقد الأمن المتمركز على النموذج إلى النقطة
المنهج الحالي لأمن الذكاء الاصطناعي يعمل على سوء فهم أساسي لطريقة عمل الهجمات الحديثة. نحن نعتامل مع الذكاء الاصطناعي كأصل مستقل يحتاج إلى حماية، مشابه لطريقة حماية قاعدة بيانات أو تطبيق ويب. لكن الذكاء الاصطناعي في الإنتاج لا يوجد في عزل. إنه عقدة في граф معقد من الهويات، والصلاحيات، وAPI، وتدفقات البيانات.
فكر في نشر الذكاء الاصطناعي النموذجي في الشركات. لديك وكلاء ذكاء اصطناعي مع الوصول إلى مساحة العمل على جوجل. متصل بsalesforce من خلال API. متكامل مع Slack للتنبيهات. يسحب البيانات من سلة AWS S3. يتم التحقق من هويته من خلال Okta أو Azure AD. يطلق سير عمل في ServiceNow.
الأمن التрадиعي للذكاء الاصطناعي يركز على النموذج نفسه: موقفه الأمني، التحقق من الحقن، سلامة الإخراج. لكن المهاجمين يركزون على التكاملات: ما يمكنهم الوصول إليه من خلال حسابات الخدمة المخترقة، إلى哪里 يمكنهم الانحناء من خلال操作 API، وأي حدود ثقة يمكنهم عبورها من خلال التكاملات المخترقة.
الهجوم لا يبدأ أو ينتهي مع نموذج الذكاء الاصطناعي. النموذج هو مجرد نقطة الدخول.
مسارات الهجوم لا تحترم حدود المنتج
هنا يتعثر معظم المنظمات. لقد نشروا أدوات أمنية توفر رؤية فردية لكل مجال. أداة واحدة تتابع صلاحيات السحابة. أداة أخرى تتعقب تكوينات SaaS. أداة ثالثة تدير حوكمة الهوية. أداة رابعة تتعامل مع إدارة الثغرات.
كل أداة تظهر لك قطعة من اللغز. لا تظهر لك كيفية ربط القطع معاً.
وفقاً لشركة Gartner، تستخدم المنظمات الآن متوسط 45+ أداة أمنية. ومع ذلك، على الرغم من هذا الاستثمار الكبير، المهاجمون ينجحون في ربط سوء التكوين عبر هذه المجالات لأن لا أداة فردية يمكنها رؤية مسار الهجوم الكامل.
المهاجم لا يحتاج إلى العثور على ثغرة حرجة في نموذج الذكاء الاصطناعي. فقط يحتاج إلى العثور على سلسلة. ربما يكون دور IAM مخترق متصل بخدمة الذكاء الاصطناعي، والتي لها صلاحيات لسلة S3، والتي تحتوي على بيانات اعتماد لتطبيق SaaS له الوصول الإداري إلى بيئة الإنتاج.
كل سوء تكوين فردي قد يصل إلى “متوسط” أو “منخفض” في أدوات الأمن الخاصة بك. لكنه عندما يرتبط معاً؟ هذا هو التعرض الحرج. وهو غير مرئي إذا كنت تنظر إلى كل مجال أمني بشكل منفصل.
الضرورة الإدارية للتعرّض
هذا هو السبب الذي يتطلب تغيير المناقشة من “أمن الذكاء الاصطناعي” إلى إدارة تعرّض التهديد المستمرة لبيئات متكاملة مع الذكاء الاصطناعي.
ليس من الكافِ أن نسأل عما إذا كانت نماذج الذكاء الاصطناعي الخاصة بنا آمنة. أفرقة الأمن تحتاج إلى فهم ما يمكن للمهاجم الوصول إليه إذا تم اختراق حساب خدمة الذكاء الاصطناعي. họن تحتاج إلى رؤية كيف يمكن لسوء التكوين عبر أنظمة السحابة، وSaaS، والهوية أن يرتبط معاً. họن تحتاج إلى معرفة كيف تتغير تكاملات الذكاء الاصطناعي لمساحة الهجوم في الوقت الفعلي. وهم بحاجة إلى تحديد الأولويات بناءً على قابلية الهجوم الفعلي، وليس فقط درجات الخطورة.
معظم برامج الأمن لا تزال تضع الأولويات في العزل، باستخدام درجات CVSS وقوائم التحقق من الامتثال التي تتجاهل تماماً ما إذا كانت الثغرة قابلة للاستغلال في بيئتك المحددة.
هذا الفجوة أكثر وضوحاً مع أنظمة الذكاء الاصطناعي لأنها تتغير باستمرار. إضافات جديدة للتكاملات أسبوعياً. الصلاحيات تتطور. اتصالات API تتغير. مساحة الهجوم الخاصة بك من الشهر الماضي ليست مساحة الهجوم الخاصة بك اليوم، لكن تقييم الأمن الخاص بك ربما يكون كذلك.
ما يبدو الأمن المتعرف على مسار الهجوم
تأمين الذكاء الاصطناعي في الإنتاج يتطلب نهجاً جوهرياً مختلفاً، ويتعلق الأمر بأربعة تحولات رئيسية في التفكير.
أولاً، تحتاج إلى رؤية موحدة عبر مجالات الأمن. أوقف عن سؤال كل أداة أمنية للعمل في غرفة منفصلة. أدوات أمن السحابة، وحوكمة الهوية، وإدارة SaaS، وفرص التفتيش على الثغرات جميعها تحتوي على قطع من لغز مسار الهجوم. أنها تحتاج إلى مشاركة البيانات في الوقت الفعلي حتى تتمكن من رؤية كيفية ربط سوء التكوين معاً.
ثانياً، اعتمد على محاكاة مسار الهجوم المستمرة. لا تنتظر الاختبارات الاختراقية أو تمارين الفريق الأحمر لاكتشاف مسارات قابلة للاستغلال. اختبر باستمرار كيف يمكن للمهاجم التحرك عبر بيئتك، مع التركيز على قابلية الاستغلال الفعلي بدلاً من الاعتماد على درجات الخطورة النظرية.
ثالثاً، حدد الأولويات بناءً على السياق. سلة S3 غير محددة ليست حرجة فقط لأنها عامة. إنها حرجة إذا كانت عامة وتحتوي على بيانات اعتماد وبيانات الاعتماد هذه لها صلاحيات امتياز، وهي قابلة للوصول من خلال مورد معرض للإنترنت. السياق يهم أكثر من أي درجة فردية.
رابعاً، انتقل نحو الإصلاح الوقائي. بالوقت الذي يكون فيه فريق SOC الخاص بك يحقق في تنبيه، لقد خسرت بالفعل وقت استجابة قيم. الدفاع الحديث يتطلب القدرة على إغلاق مسارات قابلة للاستغلال قبل أن يتم استغلالها، وليس بعد الحادث.
الإنذار الذي لا يمكننا تجاهله
مع اندماج الذكاء الاصطناعي في كل层 من Layers الشركات، مساحة الهجوم تتوسع بشكل أسرع من قدرة أفرقة الأمن على التفكير بشكل يدوي في ذلك. نحن نضيف تكاملات الذكاء الاصطناعي بعشرة أضعاف سرعة تأمينها.
إذا كنت تأمن الذكاء الاصطناعي بشكل منفصل، حماية النموذج بينما تتجاهل النظام البيئي الذي يعمل فيه، فأنت بالفعل متأخر. المهاجمون لا يفكرون في أدوات، يفكرون في مسارات. لا يستغلون ثغرات فردية. يرتبطون سوء التكوين عبر بيئتك بأكملها.
الشركات التي ستنجح في تأمين الذكاء الاصطناعي لن تكون تلك التي لديها أكثر أدوات أمن الذكاء الاصطناعي. سيكونون أولئك الذين يفهمون أن أمن الذكاء الاصطناعي لا يمكن فصله عن إدارة التعرّض عبر مساحة الهجوم بأكملها.
أمن النموذج هو أشياء أساسية. ما يهم هو فهم ما يمكن للمهاجم الوصول إليه عندما يتم اختراق تكامل الذكاء الاصطناعي. حتى يتمكن أفرقة الأمن من الإجابة على هذا بشكل مستمر، في الوقت الفعلي، عبر بيئتهم بأكملها، فإنهم لا يأمّنون الذكاء الاصطناعي. إنهم يأملون فقط أن الجدران التي بنوها موجودة في الأماكن الصحيحة.












