اتصل بنا للحصول على مزيد من المعلومات

مارك نيكلسون، قائد التحديث السيبراني في شركة ديلويت بالولايات المتحدة - سلسلة مقابلات: حوار عودة

تقديم العرض الوظيفي

مارك نيكلسون، قائد التحديث السيبراني في شركة ديلويت بالولايات المتحدة - سلسلة مقابلات: حوار عودة

mm

مارك نيكلسونيشغل منصب رئيس قسم تحديث الأمن السيبراني في شركة ديلويت بالولايات المتحدة، وهو مدير رئيسي في الشركة يتمتع بخبرة تزيد عن عقدين من الزمن في مجال الأمن السيبراني والذكاء الاصطناعي وإدارة المخاطر المؤسسية. يقود مبادرات الذكاء الاصطناعي السيبراني والاستراتيجية التجارية لقسم الأمن السيبراني في ديلويت، حيث يساعد المؤسسات الكبيرة على تحديث أطرها الأمنية ومواءمة استثماراتها في مجال الأمن السيبراني مع بيئات المخاطر المتغيرة. قبل انضمامه إلى ديلويت، شارك في تأسيس شركة فيجيلانت، وهي شركة استشارات في مجال أمن المعلومات تركز على استخبارات التهديدات ومراقبة الأحداث الضارة، وشغل منصب الرئيس التنفيذي للعمليات فيها. وقد ساهمت خبرته السابقة في المبيعات وتطوير الأعمال في العديد من شركات التكنولوجيا في بناء أساس متين لديه في الجوانب التقنية والتجارية للأمن السيبراني.

ديلويت تُعدّ هذه الشركة من أكبر شركات الخدمات المهنية في العالم، حيث تُقدّم خدمات التدقيق والاستشارات والضرائب والخدمات الاستشارية للمؤسسات في جميع القطاعات تقريبًا. ويركّز قسم الأمن السيبراني فيها على مساعدة الشركات على التكيّف مع بيئات التهديدات المتزايدة التعقيد، مع تمكين التحوّل الرقمي من خلال تقنيات مثل الذكاء الاصطناعي. وتُقدّم الشركة خدمات شاملة في مجال استراتيجية الأمن السيبراني، والمرونة، وإدارة المخاطر، وأمن المؤسسات، ما يجعل الأمن السيبراني وظيفة وقائية وعاملًا استراتيجيًا مُحفّزًا للابتكار والنمو.

يتبع هذا أ مقابلة سابقة وقد نُشر ذلك في عام 2025.

لقد شاركتَ في مجال الأمن السيبراني منذ بدايات رصد التهديدات الحديثة، بما في ذلك المشاركة في تأسيس شركة Vigilant والمساهمة في طرح أنظمة إدارة معلومات وأحداث الأمان (SIEM) وقدرات استخبارات التهديدات في السوق. كيف غيّر التطور من أنظمة الرصد المبكرة إلى منصات الدفاع السيبراني المدعومة بالذكاء الاصطناعي اليوم طريقة اكتشاف المؤسسات للتهديدات والاستجابة لها؟

عندما بدأنا ببناء منصات المراقبة في بدايات أنظمة إدارة معلومات الأمان والأحداث (SIEM)، كان التحدي الأكبر هو جمع البيانات في مكان واحد وفهمها. أتذكر كيف كان المحللون يطبعون سجلات جدار الحماية كل صباح ويراجعونها يدويًا بحثًا عن أي خلل. حتى مع تطور أنظمة SIEM، ظلت مشكلة الحجم قائمة. لم تكن سرعة العمل البشري كافية لمواكبة العدد الهائل من الأحداث المكتشفة. على الرغم من استخدام الأتمتة، ظلّ المدافعون عن الأمن السيبراني يعانون من مشكلة ربط البيانات وتحليلها، حيث كانوا يعملون باستمرار على صياغة قواعد جديدة، غالبًا كرد فعل على إخفاقات المراقبة.

يُعقد الأمل على الذكاء الاصطناعي في تغيير هذا الواقع جذرياً. فإلى جانب توظيف قدرات الذكاء الاصطناعي لأتمتة عمليات الأمن من المستوى الأول، يُتوقع أن يُسهم الذكاء الاصطناعي في نقل عمليات الكشف والاستجابة من مرحلة "ما بعد وقوع الحدث" إلى مرحلة "ما أثناء وقوعه"، وذلك من خلال الاستفادة من الضبط الديناميكي لخوارزميات المراقبة. وفي بعض الحالات، ستعتمد مؤسسات الأمن السيبراني أيضاً على الذكاء الاصطناعي لبدء إجراءات المعالجة.

لكن الصعوبة لا تختفي، بل تتغير. فمع ازدياد استقلالية الأنظمة وتعقيدها، يصبح ضمان الثقة وإمكانية المراقبة ساحة معركة: ما الذي يفعله النظام، ولماذا يفعله، وكيف نتأكد من عدم التلاعب به؟ إن الفرص التي يتيحها الذكاء الاصطناعي هائلة، لكنها تزيد من المخاطر أيضاً عندما تعمل البيئة بسرعة فائقة.

لقد أشرتَ إلى أن الذكاء الاصطناعي يمكّن الخصوم من أتمتة عمليات الاستطلاع، وإنشاء ثغرات أمنية، وتسريع دورات الهجوم. عمليًا، إلى أي مدى قلّص الذكاء الاصطناعي الوقت بين اكتشاف الثغرات الأمنية واستغلالها؟

تاريخياً، كانت هناك غالباً فترة زمنية بين اكتشاف الثغرة الأمنية واستغلالها. كان هناك بالتأكيد شعورٌ بالاستعجال، ولكن عموماً، ما لم تتعرض لهجومٍ غير معروف (ثغرة اليوم الصفر)، كان هناك متسعٌ من الوقت لفهم التهديد، وتصحيحه، والتخفيف من آثاره قبل أن يتمكن المهاجم من نشر ثغراتٍ على نطاقٍ واسع. لقد قضى الذكاء الاصطناعي تقريباً على تلك الفترة الزمنية.

يستطيع المهاجمون أتمتة عمليات الاستطلاع، وإجراء مسح مستمر للثغرات الأمنية، واستخدام أدوات مدعومة بالذكاء الاصطناعي لتسريع مراحل تطوير الثغرات الأمنية واستهدافها. في كثير من الحالات، ما كان يستغرق أسابيع أصبح يُنجز الآن في غضون ساعات، وفي سيناريوهات مؤتمتة للغاية، قد يكون أسرع مما تستطيع معظم برامج الحماية التعامل معه.

الخلاصة بسيطة: تحتاج فرق الأمن إلى الأتمتة والذكاء الاصطناعي في الجانب الدفاعي، إلى جانب ضوابط قوية، إذا أرادت مواكبة التطورات.

تتجه فرق الأمن بشكل متزايد من نماذج الإشراف التي تعتمد على العنصر البشري في عملية المراقبة إلى نماذج الإشراف التي تعتمد على العنصر البشري في عملية المراقبة. كيف يبدو هذا التحول عمليًا داخل مركز عمليات الأمن الحديث (SOC)؟ وكيف ينبغي للمؤسسات إعادة النظر في أدوار المحللين مع تولي الذكاء الاصطناعي المزيد من المهام المستقلة؟

في مركز عمليات الأمن السيبراني التقليدي، يتمركز المحللون في قلب كل عملية اتخاذ قرار. تصل التنبيهات، فيقوم المحللون بتصنيفها، والتحقيق فيها، وتحديد الإجراءات اللازمة. كان هذا النهج فعالاً عندما كان حجم التنبيهات وسرعة الهجمات ضمن الحدود المقبولة. أما في بيئة اليوم، فقد أصبح حجم النشاط هائلاً للغاية بحيث يتعذر على البشر القيام بدور الوسيط في كل قرار.

يعني التحول إلى تدخل بشري في عملية التقييم أن أنظمة الذكاء الاصطناعي قادرة على أداء العديد من المهام الروتينية التي كان يقوم بها المحللون سابقًا، مثل فرز التنبيهات، وجمع المعلومات السياقية، وربط البيانات، وتنفيذ إجراءات تصحيحية محددة. وبذلك، يصبح دور الإنسان مقتصرًا على الإشراف والتحقق بدلًا من التنفيذ اليدوي.

عملياً، يُحوّل ذلك وقت المحللين من معالجة التنبيهات الروتينية إلى أعمال ذات قيمة أعلى، مثل البحث عن التهديدات، وهندسة الكشف، ومحاكاة الخصوم، وتحسين البنية الدفاعية. يبقى العنصر البشري أساسياً، لكن دوره يتطور نحو الإشراف والتقييم ووضع الاستراتيجيات بدلاً من كونه المعالج الرئيسي لبيانات الأمن.

نسمع الكثير عن "الذكاء الاصطناعي الآمن بالتصميم". من وجهة نظرك، لماذا يحتاج هذا المفهوم إلى أن يتجاوز سلامة النموذج ليشمل أنظمة الهوية، وهيكلية الأذونات، وطبقات التنسيق؟

تركز العديد من النقاشات حول الذكاء الاصطناعي الآمن بشكل كبير على النموذج نفسه، مثل حماية بيانات التدريب، ومنع تسميم النموذج، أو الدفاع ضد هجمات الحقن الفوري. هذه قضايا حقيقية، لكنها ليست سوى جزء من المخاطر.

في الواقع، تعمل أنظمة الذكاء الاصطناعي كجزء من أنظمة رقمية أكبر بكثير. فهي تصل إلى البيانات، وتتفاعل مع واجهات برمجة التطبيقات، وتشغل سير العمل، وتعمل بشكل متزايد من خلال وكلاء يمكنهم التصرف بدرجة من الاستقلالية.

عند حدوث ذلك، تصبح الهوية والصلاحيات هي محور التحكم. تُعتبر أنظمة الذكاء الاصطناعي بمثابة هويات رقمية جديدة داخل المؤسسة. وإذا لم تُدار هذه الهويات بشكل سليم، فقد تُسبب مخاطر جسيمة.

لذا، يجب أن يمتد مفهوم الذكاء الاصطناعي الآمن منذ تصميمه ليشمل إدارة الهوية، وضوابط الوصول، وطبقات التنسيق، وأنظمة المراقبة التي تتعقب أنشطة هذه الأنظمة. ويتعين على المؤسسات التعامل مع أنظمة الذكاء الاصطناعي كما لو كانت مستخدمين بشريين، مع تحديد صلاحياتها، ومراجعتها، والإشراف عليها، وإلا سيتسع نطاق الهجمات الإلكترونية بسرعة.

تُضيف العديد من المؤسسات أدوات الذكاء الاصطناعي إلى أنظمة الأمن السيبراني التقليدية المصممة لتتوافق مع سرعة العمل البشري. ما هي أبرز التغييرات المعمارية التي تحتاجها المؤسسات للاستفادة الفعلية من الذكاء الاصطناعي في مجال الدفاع السيبراني؟

من الأساليب الشائعة دمج الذكاء الاصطناعي مع العمليات وسير العمل التقليدية المصممة للعمليات التي يقودها الإنسان. وهذا ليس نهجًا سيئًا في البداية، خاصةً مع تطور تقنيات رؤية الحاسوب. على سبيل المثال، طورت شركة ديلويت نظامًا آليًا يمكن تدريبه ليحل محل العنصر البشري في إدارة الهوية والتحكم بها، دون الحاجة إلى التخلي عن حلول برمجية متخصصة يصعب إيقافها. وهذا من شأنه أن يحقق وفورات كبيرة في التكاليف.

لكن الفائدة المستقبلية تكمن في أن المؤسسات ستبدأ على الأرجح في إعادة التفكير في سير العمل الأمني ​​من البداية إلى النهاية: تحديث البنية التحتية للبيانات بحيث يمكن لأدوات الأمان الوصول بشكل موثوق إلى بيانات القياس عن بعد عالية الجودة ومنظمة بشكل جيد؛ وبناء التنسيق بحيث تعمل وظائف الكشف والاستجابة والهوية كنظام منسق، وليس كأدوات منفصلة.

تُعدّ الهوية من أهمّ أدوات التحكم. ومع ازدياد استخدام الأتمتة والذكاء الاصطناعي، يتزايد عدد الهويات غير البشرية بشكل ملحوظ. لذا، تُصبح إدارة هذه الهويات بفعالية أمراً بالغ الأهمية للحفاظ على السيطرة.

الأمن القائم على الذكاء الاصطناعي هو في نهاية المطاف مزيج من بيانات أفضل، وتنسيق وحوكمة أفضل تأخذ في الاعتبار كلاً من الجهات الفاعلة البشرية والآلية.

مع ازدياد استقلالية أنظمة الذكاء الاصطناعي، تتسع رقعة الهجمات لتشمل مجالات مثل تنسيق الوكلاء، وسلاسل واجهات برمجة التطبيقات، ومسارات اتخاذ القرارات الآلية. أي من هذه الرقع الناشئة يثير قلقك أكثر؟

إذا كان عليّ اختيار مجال واحد يستحق الاهتمام الفوري، فهو مجال الهوية وأذونات الوصول إلى البيانات داخل الأنظمة التي تعتمد على الوكلاء.

مع ازدياد اعتماد المؤسسات على الذكاء الاصطناعي الوكيل، يتزايد عدد الجهات الفاعلة المستقلة العاملة داخل المؤسسة. قد تتمتع هذه الجهات بصلاحيات وصول هائلة إلى البيانات وواجهات برمجة التطبيقات وسير العمل، مما يجعلها هدفًا جذابًا للمهاجمين في حال عدم تصميم الصلاحيات ومراقبتها وتدقيقها بدقة. من المهم التعامل مع كل جهة وكيلة كما لو كانت موظفًا جديدًا: تسميتها، وتحديد نطاق عملها، ومراقبتها، وتمكين فصلها بسرعة عند الحاجة.

تُضيف سلاسل واجهات برمجة التطبيقات ومسارات اتخاذ القرارات الآلية مخاطر أيضًا، لكن إدارة الهوية غالبًا ما تُشكّل أساس التحكم. إذا لم تتمكن من تحديد هوية الوكيل بوضوح، وما يمكنه الوصول إليه، وما فعله، فلن تتمكن من التحكم به فعليًا.

من وجهة نظر مجلس الإدارة، كيف يفكر المسؤولون التنفيذيون وأعضاء مجلس الإدارة حاليًا في المخاطر السيبرانية المدفوعة بالذكاء الاصطناعي، وأين ترون أكبر فجوة بين الواقع التقني وفهم مجلس الإدارة؟

تُدرك مجالس الإدارة بشكل متزايد أن الذكاء الاصطناعي، رغم ما يحمله من فرص هائلة، قد ينطوي أيضاً على مخاطر جسيمة. ويدرك معظم المديرين أن الذكاء الاصطناعي سيُشكّل التحول في عالم الأعمال، وقد بدأوا بالفعل في طرح تساؤلات حول الحوكمة والأمن والمرونة.

غالباً ما تظهر الفجوة في السرعة والتعقيد. لا تزال العديد من مناقشات مجالس الإدارة تعتمد على أطر الأمن السيبراني التقليدية - التي لا تزال مهمة - لكنها لا تعكس دائماً مدى سرعة تطور التهديدات المدفوعة بالذكاء الاصطناعي وتوسع نطاقها.

يكمن الخلل الآخر في أن سؤال "هل نظام الذكاء الاصطناعي لدينا آمن؟" يبدو سؤالاً واحداً، لكن الإجابة تكمن في إدارة البيانات، وسلامة النماذج، وإدارة الهوية، والتنسيق بين الأنظمة المتعددة. وتسعى مجالس الإدارة التي تعمل على سد هذه الفجوة إلى تطبيق تقارير قائمة على الضوابط تجعل هذه العناصر المتحركة مرئية وقابلة للاختبار، كما تستثمر الوقت في بناء مهارات أعضاء مجلس الإدارة، لضمان مواكبة الرقابة للتطور التكنولوجي.

يتزايد استخدام الذكاء الاصطناعي في كلا جانبي ساحة المعركة. هل ندخل في سباق تسلح دائم في مجال الأمن السيبراني بين الذكاء الاصطناعي، وإذا كان الأمر كذلك، فما هي المزايا التي يتمتع بها المدافعون والتي قد يصعب على المهاجمين محاكاتها؟

من الواضح أننا نعيش في عصرٍ يُستخدم فيه الذكاء الاصطناعي من قِبل المهاجمين والمدافعين على حدٍ سواء. فالمهاجمون يُوظّفون الذكاء الاصطناعي بالفعل لتسريع عمليات الاستطلاع، وتحديد الثغرات الأمنية، وأتمتة أجزاء من دورة حياة الهجوم. لكن المدافعين ما زالوا يتمتعون بمزايا حقيقية إذا اختاروا استخدامه.

يتمتع المدافعون برؤية شاملة لبيئتهم الخاصة، وإمكانية الوصول إلى بيانات القياس عن بُعد الداخلية، والقدرة على بناء بنى تحتية متعددة الطبقات يصعب على المهاجمين اختراقها. ويمكن للذكاء الاصطناعي أن يساعد المدافعين على تحليل كميات هائلة من البيانات عبر الشبكات ونقاط النهاية والهويات، مما يمنحهم القدرة على اكتشاف السلوكيات الشاذة في وقت مبكر جدًا.

يكمن التحدي في تبني هذه التقنيات. فإذا ظل المدافعون عالقين في أساليب العمل اليدوية بينما يقوم المهاجمون بالأتمتة، سيصبح التفاوت حادًا للغاية. سباق التسلح حقيقي، والفائزون هم من يوظفون الذكاء الاصطناعي مع حوكمة قوية، وليس من يكتفون بتجربته.

في عملك كمستشار للمؤسسات الكبيرة، ما هي أكثر الأخطاء شيوعاً التي ترتكبها المؤسسات عند محاولة دمج الذكاء الاصطناعي في استراتيجية الأمن السيبراني الخاصة بها؟

من أكثر الأخطاء شيوعاً التي نلاحظها هو التعامل مع الذكاء الاصطناعي كأداة مستقلة بدلاً من كونه تحولاً معمارياً. تُجري الفرق تجارب معزولة دون تحديث قاعدة البيانات أو نموذج الحوكمة أو عمليات التشغيل اللازمة للحفاظ على التأثير، مما يؤدي إلى ركود النتائج.

ومن الأخطاء الأخرى نشر قدرات الذكاء الاصطناعي دون مراعاة المخاطر الجديدة بشكل كامل: الهويات الجديدة، وتدفقات البيانات الجديدة، ومسارات اتخاذ القرارات الآلية التي توسع نطاق الهجمات. فإذا أُضيفت هذه القدرات دون وجود الضوابط المناسبة، فقد يُؤدي الذكاء الاصطناعي إلى زيادة الهشاشة بدلاً من تعزيز المرونة.

أخيرًا، تُقلل العديد من المؤسسات من أهمية إشراك الموظفين. فالمختصون الذين يديرون عمليات الأمن يوميًا يعرفون مواطن الخلل ومعايير الأداء الأمثل. وتُركز التحولات الفعّالة على إشراك هذه الفرق مبكرًا، بحيث تُعزز التكنولوجيا قدرتهم على اتخاذ القرارات بدلًا من أن تُعيقها.

بالنظر إلى المستقبل خلال ثلاث إلى خمس سنوات، كيف سيبدو مركز عمليات الأمن القائم على الذكاء الاصطناعي مقارنة ببيئات مراكز عمليات الأمن الحالية؟

حسنًا، من المرجح أن يبدو الأمر مختلفًا تمامًا، في جوانب عديدة لا يمكنني التنبؤ بها. على الأرجح، سيعمل مركز عمليات الأمن السيبراني في المستقبل كقوة عاملة هجينة تجمع بين العنصر البشري والرقمي. ستتولى أنظمة الذكاء الاصطناعي جزءًا كبيرًا من معالجة البيانات وربطها والاستجابة الأولية. وستساعد الأنظمة الآلية في أتمتة سير العمل في مجالات إدارة الثغرات الأمنية، وإدارة الهوية، والاستجابة للحوادث، والمراقبة المستمرة للتحكم.

يظل المحللون البشريون أساسيين، لكن مركز الثقل يتحول: الإشراف على أنظمة الذكاء الاصطناعي، والتحقق من صحة حالات استخدام الكشف (بدلاً من كتابتها)، والتحقيق في التهديدات المعقدة وتحسين البنية الدفاعية.
لا يهدف هذا إلى الاستغناء عن العنصر البشري، بل إلى تعزيز دوره. فبدلاً من إضاعة الوقت في فرز التنبيهات وجمع البيانات يدويًا، سيركز المحللون على الجوانب الاستراتيجية للأمن السيبراني. والسؤال المطروح هو: "كيف سندرب الجيل القادم من متخصصي الأمن السيبراني في ظل أتمتة المستويين الأول والثاني بالكامل؟" ولعلّ الإجابة تكمن في التطور الهائل الذي يمكن أن يساهم فيه الذكاء الاصطناعي في تطوير تقنيات المحاكاة والتدريب.

من المرجح أن تكون المنظمات التي تنجح في بناء قوة عاملة هجينة ناجحة، تجمع بين الخبرة البشرية والأتمتة المدعومة بالذكاء الاصطناعي، في أفضل وضع للعمل بالسرعة المطلوبة في بيئة التهديدات الحديثة.

شكرا لك على المقابلة الرائعة ، القراء الذين يرغبون في معرفة المزيد يجب أن يزوروا ديلويت أو يقرأوا مقابلة سابقة.

أنطوان هو قائد صاحب رؤية وشريك مؤسس لشركة Unite.AI، مدفوعًا بشغف لا يتزعزع لتشكيل وتعزيز مستقبل الذكاء الاصطناعي والروبوتات. وهو رجل أعمال متسلسل، ويعتقد أن الذكاء الاصطناعي سيكون له نفس التأثير على المجتمع مثل الكهرباء، وغالبًا ما يتم ضبطه وهو يهذي عن إمكانات التقنيات المبتكرة والذكاء الاصطناعي العام.

ك المستقبليوهو مكرس لاستكشاف كيف ستشكل هذه الابتكارات عالمنا. بالإضافة إلى ذلك، فهو مؤسس Securities.io، وهي منصة تركز على الاستثمار في التقنيات المتطورة التي تعمل على إعادة تعريف المستقبل وإعادة تشكيل قطاعات بأكملها.