Connect with us

قادة الفكر

AI ضد AI: الواقع الجديد للأمن السيبراني

mm mm

لقد وصلت الهجمات السيبرانية التي تعمل بالذكاء الاصطناعي، مما يؤكد ما كان مرة فقط خطرًا نظريًا، ولكن متوقعًا، وهي تُعلن عن عصرًا جديدًا في مشهد التهديدات. مع khảية وكلاء الذكاء الاصطناعي الآن لإطلاق حملات معقدة ومتكاملة في دقائق، يمكن للمجرمين السيبرانيين تحديد نقاط الضعف في المؤسسات واستغلالها بسرعة الآلة. لقد تغيرت قواعد المشاركة: الدفاع السيبراني للامس لا يمكنه بعد الآن مواكبة الهجوم المدفوع بالذكاء الاصطناعي اليوم.

مع تسريع الذكاء الاصطناعي التهديدات السيبرانية، تحتاج المؤسسات إلى نشر قدراتها الدفاعية التي تعمل بالذكاء الاصطناعي لتبقى في خطوة مع السرعة وال规模 والدقة. حتى الآن، لا يزال الأعداء السيبرانيون يتبعون تقنيات وطرق وإجراءات متعارف عليها (TTPs)، ولكن الذكاء الاصطناعي يسرع ويعزز كتابهم. بالإضافة إلى ذلك، أصبحت نماذج الذكاء الاصطناعي للمؤسسات نفسها هدفًا جديدًا من خلال تسميم النموذج والهندسة الاجتماعية القائمة على اللغة، مما يتطلب من فرق الأمن السيبراني تأمين قدرات الذكاء الاصطناعي بشكل صحيح. لذلك، ينبغي أن تكون الأمن جزءًا أساسيًا من استراتيجية المنظمة الأكبر للذكاء الاصطناعي.

ما يميز الهجمات السيبرانية التي تعمل بالذكاء الاصطناعي؟

في عالم رقمي 이미 مشبع بالمحاولات السيبرانية التي تتم بلا انقطاع تقريبًا، تم تقليل حواجز الدخول للممثل الخبيث، مما يزيد ليس فقط من حجم الهجمات ولكن أيضًا من تعقيدتها. يمكن أن تستخدم الهجمات التي تعمل بالذكاء الاصطناعي الآن الذكاء الاصطناعي أو التعلم الآلي (ML) لتأتمتة وتسريع أو تعزيز أي مرحلة من مراحل دورة الهجوم، من الاستطلاع وجمع المعلومات إلى استغلال البيانات الحساسة وتصديرها.

الاعتماد حصريًا على العمليات والتكنولوجيا الأمنية الحالية دون نشر التكنولوجيا المتقدمة نفسها التي يستخدمها الأعداء يعطي العدو ميزة لا يمكن التغلب عليها تقريبًا دون دفاع بالذكاء الاصطناعي.已经 تعج المؤسسات بمراقبة بيئتها من الممثلين الخبيثين التقليدية. الهجمات التي تعمل بالذكاء الاصطناعي سوف تزيد من إرهاق التنبيهات. هذا ي đòiين تطورًا من العمليات المدارة من قبل البشر إلى قوة عمل سيبرانية بشرية رقمية هجينة.

خريطة كل الأصول الرقمية

في العالم الحالي، فهم النقاط المحتملة للدخول عبر بيئة المؤسسة هو أمر ضروري، ومع ذلك لا يزال بعيد المنال بالنسبة للعديد من المؤسسات الكبيرة. بخلاف الأنظمة والassets الرقمية فقط، هناك حاجة إلى خريطة شاملة لجميع الهويات والدخول داخل المنظمة. الهوية الرقمية، التي تربط الخصائص المادية والسلوكية بالفرد، مفهوم جيد مع التحكمات الحالية اللازمة لإدارة الوصول الرقمي.

然而، فهم المناظر الطبيعية للمؤسسة على نطاق واسع للهويات غير البشرية (NHIs) أمر ضروري لتأمين الأصول الرقمية. إدراك القيمة المحتملة للذكاء الاصطناعي داخل المنظمة يعني منح وكلاء الذكاء الاصطناعي الوصول والتصريح لإكمال عملية الأعمال بشكل مستقل. مثل بيئات السحابة في العصر الأمني السابق، تتم تشغيل وتعطيل سير العمل القائم على الوكلاء في الوقت الحالي على نطاق واسع، مما يتطلب القدرة المتقدمة على إدارة وتتبع حيث يعملون وكيف يحققون المهمات أو الأدوار المحددة.

ينبغي للمؤسسات توسيع حوكمة الهوية عبر دورة حياة هوية الوكيل ومراقبة أفعال الوكيل، تمامًا كما يتم مراقبة الوصول للمستخدمين البشر اليوم من أجل سلوكيات المخاطر الداخلية أو اختراق الحساب من قبل الممثلين الخبيثين. مع اتخاذ القدرات الوكيلية المزيد من الاستقلالية والعمل الحرج للأعمال، فهم ما يبدو مثل بصمة الهوية ونمط الوصول أمر حاسم لتنفيذ التحكمات في الوصول ومراقبة الأمان اللازمة لحمايتهم والمؤسسة من الإساءة.

قفل نماذج الذكاء الاصطناعي

تعد قدرات الذكاء الاصطناعي واعدة لتحقيق الكفاءة والإنتاجية ولكنها أيضًا لديها إمكانية أن تُستخدم ضد المنظمات. إدخال الذكاء الاصطناعي في كل جانب من جوانب عمليات الأعمال لم يعد أمرًا “من اللطيف أن يكون” – إنه شرط للنجاح في المناظر التنافسية الحالية. لذلك، نشر الذكاء الاصطناعي بشكل آمن هو مكون ضروري لتحقيق الإمكانات التجارية والنتائج بأمان.

الانتقال إلى الدفاع السيبراني الذي يعتمد على الذكاء الاصطناعي جاري، بينما نماذج الذكاء الاصطناعي نفسها أصبحت أهدافًا. قد يحاول الأعداء تسميم البيانات التي تغذي هذه النماذج و操ulationها لاتخاذ إجراءات غير مقصودة أو حتى إفشاء معلومات حساسة.

يمكن أن تأتي الهجمات المعادية على الذكاء الاصطناعي في أشكال مختلفة، مثل هجمات التسميم، وهجمات الحقن، وغيرها. لحماية الذكاء الاصطناعي من التلاعب المحتمل، ينبغي للمنظمات الاستفادة من فلسفة وكالة البنية التحتية والأمن السيبراني (CISA) التصميم الآمن. هذا يبدأ مع البيانات التي تغذي تدريب النموذج. قفل المدخلات في وقت مبكر من عملية التطوير يضع الأساس للمخرجات الموثوقة في النشر.

من الممكن فهم المدخلات التي تدخل في تطوير النماذج والقدرات من خلال الحوكمة المتعمدة للبيانات بالإضافة إلى التحكم في الوصول إلى النماذج نفسها. التحكمات الحاسمة التي تسمح بالتحقق من المخرجات المرغوبة تأتي في شكل حماية فقدان البيانات (DLP)؛ تنفيذ السياسات والأمان؛ التأصيل عبر مصادر موثوقة؛ والتحكمات الصارمة للموافقة على الإجراءات ذات التأثير الكبير، وقابلية التدقيق، والاختبار المستمر، بما في ذلك اختبار الاختراق لنماذج الذكاء الاصطناعي لتحصينها.

تضمين الذكاء الاصطناعي في عمليات الأمن

حتى الآن، تطبيق الذكاء الاصطناعي على الدفاع السيبراني كان تكتيكيًا، حيث قامت العديد من المنظمات بتثبيت الذكاء الاصطناعي على العمليات التي تركز على البشر، بدلاً من إعادة التفكير الاستراتيجي في كيفية بناء العمليات التي تعتمد على الذكاء الاصطناعي. هذا مثل محاولة وضع محرك V8 على دراجة. التطور التالي للتمكين بالذكاء الاصطناعي سيكون تصميم العمليات من البداية، مع الذكاء الاصطناعي والآلية الأصلية في التصميم. الأساليب والعمليات الأمنية الموثوقة، مثل كشف التهديدات، واصطياد التهديدات، وتصميم الكشف، لا تزال العناصر الحاسمة التي تُعد ضرورية للأمن المؤسسي في عصر الذكاء الاصطناعي. يمكن أن تضع تحويل العمليات الأمنية الحالية لتمكين تعزيز الذكاء الاصطناعي أساسًا قويًا لمركز عمليات الأمن الذي يعتمد على الذكاء الاصطناعي في المستقبل (SOC).

بالإضافة إلى ذلك، لا يعد التأتمتة مفهومًا جديدًا فريدًا بظهور الذكاء الاصطناعي؛ لقد تم تأتمتة سير العمل والأمن وعملياته لسنوات، مع وجود قدرات التأتمتة والتنسيق المتقدمة جدًا في المنظمات الناضجة. ومع ذلك، يعزز الذكاء الاصطناعي التأتمتة القائمة على القواعد ويطورها بشكل أكبر، مما يسمح بالسير العمل التأتمتية الديناميكية والمتكيفة والغنية بالسياق التي يمكن أن تساعد في معالجة السرعة والمناورة المطلوبة لهذه المخاطر الجديدة التي تعمل بالذكاء الاصطناعي.

ماذا بعد؟

يجب أن يبقى الأمن في صدارة أذهان الأعمال وتكنولوجيا المعلومات للحفاظ على أصولهم الحيوية ومستخدميهم في مأمن من الاستغلال الخبيث. الذكاء الاصطناعي الآمن حسب التصميم هو ضرورة نظرًا للسرعة التي يمكن بها نشر نماذج الذكاء الاصطناعي وطلب أداء أنشطة أكثر حرجية. ينبغي للفرق الأمنية التفكير استراتيجيًا في تحويل العمليات من البداية لتنفيذ القدرات الجديدة للذكاء الاصطناعي بشكل مناسب للحفاظ على الخطوة في لعبة الفأر والقطة الأمنية.

يمكن لقادة الأمن اتخاذ خطوات ملموسة في المدى القصير: إجراء مراجعة شاملة للعمليات الأمنية الحالية لتحديد الفجوات وفرص التحديث والتحويل. البقاء على اطلاع دائم بالتهديدات والتrends والتكنولوجيا الجديدة للذكاء الاصطناعي. قبل كل شيء، البقاء متصلًا بمبدأ الأمن الأساسي للدفاع العميق الذي أثبت نفسه مع مرور الوقت – الحماية المتعددة والتحقق من الهوية، من النقطة النهائية إلى الشبكة إلى البيانات، مع قدرات المراقبة والاستجابة القوية التي يتم اختبارها دائمًا.

الpotential التطوري للذكاء الاصطناعي يعدو بفائدة كبيرة جدًا لدرجة أن لا يمكن تجاهله، و已经 تم إطلاق الجني من الزجاجة بالنسبة للممثلين الخبيثين. لذلك، دور قادة الأمن في هذا العصر الجديد هو نفسه دورهم دائمًا: دعم منظماتهم في تحقيق أهدافها التجارية مع التخفيف من المخاطر الفكرية – الآن بسرعة الآلة باستخدام الذكاء الاصطناعي.

Kevin Urbanowicz هو شريك في Deloitte & Touche LLP ويشغل منصب قائد عمليات الأمن السيبراني في Deloitte في الولايات المتحدة.

Mark Nicholson is a principal at Deloitte & Touche LLP and serves as Deloitte’s US Cyber AI leader.