قاده التفكير
زيادة الإنفاق على أمن الذكاء الاصطناعي لا يقلل من مخاطر الذكاء الاصطناعي لديك

تتزايد ميزانيات أمن الذكاء الاصطناعي بسرعة. وفي العديد من المؤسسات، تتزايد هذه الميزانيات بوتيرة أسرع من الأنظمة التي صُممت لحمايتها.
من السهل التغاضي عن هذا الخلل. يستمر الاستثمار في الذكاء الاصطناعي في التسارع، حيث يصل التمويل الخاص العالمي إلى 33.9 مليار دولار في عام 2025 وحدهفي الوقت نفسه، يُطلب من قادة الأمن مراعاة المخاطر الجديدة المرتبطة بسلوك النماذج، وكشف البيانات، والتلاعب العدائي. وكانت الاستجابة متوقعة: المزيد من الأدوات، والمزيد من الضوابط، والمزيد من الميزانية.
قد يميل البعض إلى تحويل هذا النقاش إلى مجرد تكلفة ممارسة الأعمال، وسؤال بسيط حول حجم الإنفاق المطلوب من المؤسسات لتأمين الذكاء الاصطناعي. إلا أن هذه ليست الطريقة الصحيحة للتعامل مع هذه المشكلة الجديدة. بدلاً من ذلك، يتعين على المؤسسات دراسة ما إذا كان استثمارها في الذكاء الاصطناعي يضمن بالفعل الأدوات المناسبة.
في معظم المؤسسات، لا يزال تطبيق الذكاء الاصطناعي في مراحله الأولى على مستوى المهام. تجري الفرق تجارب على التلخيص، والمساعدة في البرمجة، والتحليلات، أو أتمتة سير العمل لتحسين إنتاجية الأفراد. تُحقق هذه الأدوات مكاسب محلية، لكنها نادرًا ما تُغير طريقة اتخاذ القرارات أو كيفية عمل الأنظمة على نطاق أوسع. بدأت هذه الفجوة تظهر في النتائج. فبينما ينتشر استخدام الذكاء الاصطناعي على نطاق واسع، إلا أن نسبة استخدامه لا تتجاوز 10%. 20 ٪ من المنظمات الإبلاغ عن تأثير ملموس على أرباحهم النهائية.
يتزايد الاستثمار في مجال الأمن بالتوازي مع هذه التجارب. ومع ذلك، في كثير من الحالات، يُطبَّق هذا الاستثمار على مجموعة متنامية من الأدوات المنفصلة بدلاً من الأنظمة المتكاملة التي تُشكِّل طريقة سير العمل الفعلي. يُقيَّم الذكاء الاصطناعي على مستوى المهمة، ويُؤمَّن على مستوى النظام، ولا يُصمَّم بشكل كامل على مستوى سير العمل حيث تُخلق القيمة الحقيقية.
يتوسع تبني الذكاء الاصطناعي بوتيرة أسرع من وتيرة دمجه.
معظم تطبيقات الذكاء الاصطناعي اليوم محدودة النطاق بطبيعتها. فهي مصممة لتسريع المهام الفردية بدلاً من إعادة تشكيل كيفية سير العمل بين الفرق أو الأنظمة.
قد يستخدم فريق المبيعات الذكاء الاصطناعي لصياغة رسائل البريد الإلكتروني أو تلخيص المكالمات. وتستخدمه فرق الهندسة لتسريع عملية توليد التعليمات البرمجية. وتجرب فرق العمليات التحليلات أو دعم التنبؤ. كل حالة من حالات الاستخدام هذه تحقق مكاسب إنتاجية ملموسة على المستوى الفردي، وهذا غالبًا ما يكون كافيًا لتبرير الاستثمار الأولي.
تبدأ التعقيدات عندما تتراكم هذه المكاسب المنفردة.
يُضيف كل تطبيق نماذجه الخاصة، وأنماط الوصول إلى البيانات، وواجهات برمجة التطبيقات، والتبعيات. وبمرور الوقت، تجد المؤسسات نفسها تُدير منظومة متنامية من قدرات الذكاء الاصطناعي التي لم تُصمم أصلًا للعمل معًا. وحتى الآن، لا يزال جزء كبير من الشركات في المراحل التجريبية المبكرة، حيث لم تُدمج العديد من المبادرات بعد في صميم عملياتها التجارية.
تتولى فرق الأمن هذه البيئة أثناء تشكلها. ويُطلب منها تأمين ليس نظامًا واحدًا، بل مجموعة متغيرة باستمرار من الأدوات والتكاملات وتدفقات البيانات التي تتوسع مع كل تجربة جديدة. وبدون بنية موحدة، يصبح الأمن مجرد إجراء لتغطية النظام بدلًا من التحكم فيه.
الخطر الحقيقي لا يكمن في الأدوات الفردية، بل في تجزئة النظام.
مع استمرار تجارب الذكاء الاصطناعي، بدأت توقعات القيادة تتغير. تتساءل مجالس الإدارة والفرق التنفيذية عن كيفية ترجمة الإنفاق المتزايد على الذكاء الاصطناعي إلى نتائج أعمال قابلة للقياس.
عندما تفشل المبادرات الأولية، نادرًا ما تتوقف المؤسسات عن العمل، بل توسّع جهودها، وتطلق المزيد من المشاريع التجريبية، وتُدخل المزيد من الأدوات، وتُنشئ المزيد من عمليات التكامل بحثًا عن قيمة لم تتحقق بعد. وتشير التوقعات بالفعل إلى ذلك. أكثر من نصف مشاريع الذكاء الاصطناعي قد تفشل للوصول إلى الإنتاج أو تحقيق النتائج المتوقعة في السنوات القادمة.
بالنسبة لفرق الأمن، تخلق هذه الدورة نوعاً جديداً من المخاطر.
لم يعد التحدي يقتصر على حماية التطبيقات أو النماذج الفردية، بل أصبح إدارة بيئة يتغير فيها النظام الأساسي باستمرار. فكل أداة جديدة تُضيف هويات وتدفقات بيانات وسلوكيات نماذج إضافية، مما يُوسع نطاق الهجوم قبل أن يتمكن المدافعون من فهمه بالكامل.
في هذا السياق، لا يؤدي زيادة الإنفاق على الأمن بالضرورة إلى تقليل المخاطر، بل قد يزيد من تعقيد العمليات. فحماية الأنظمة المجزأة تتطلب المزيد من الأدوات والمراقبة والتنسيق، لكنها لا تعالج المشكلة الأساسية، وهي غياب بنية متماسكة لكيفية نشر الذكاء الاصطناعي واستخدامه.
لا يصبح الإنفاق الأمني استراتيجياً إلا عندما يصبح الذكاء الاصطناعي عملياً.
نحن في وضع ممتاز بفضل الاستثمار في أمن الذكاء الاصطناعي؛ فمستوى الابتكار هائل، وبينما يبدو المستقبل مشرقاً لحالات استخدام الذكاء الاصطناعي، فإن الاستثمار الأمني غالباً ما يكون منفصلاً عن المكان الذي يخلق فيه الذكاء الاصطناعي قيمة حقيقية.
عندما يتم استخدام الذكاء الاصطناعي بشكل أساسي كمجموعة من أدوات الإنتاجية المنفصلة، فإن جهود الأمن تُجبر على مواكبة هذا التشتت. وينتهي الأمر بالفرق بحماية عشرات التطبيقات غير المتصلة التي لها تأثير محدود على نتائج الأعمال الأساسية.
تتجلى القيمة الأكبر عندما يتم دمج الذكاء الاصطناعي في سير العمل الذي يُسيّر عمل المؤسسات. فالتخطيط والتنبؤ وتخصيص الموارد واتخاذ القرارات التشغيلية هي المجالات التي يبدأ فيها الذكاء الاصطناعي بالتأثير على النتائج بشكلٍ ملموس. كما تُعدّ هذه المجالات أيضاً بيئاتٍ يصبح فيها الاستثمار في الأمن أكثر استراتيجية.
إن تأمين أداة غير متصلة يحمي مهمة ما. أما تأمين نظام متكامل فيحمي عملية تجارية.
هنا تبرز أهمية التمييز بين تبني الذكاء الاصطناعي على مستوى المهام وتصميمه على مستوى سير العمل. فالذكاء الاصطناعي غير المدمج في عملية اتخاذ القرارات سيواجه صعوبة في تحقيق تأثير ملموس. كما أن الأمن غير المتوافق مع أنظمة اتخاذ القرارات هذه سيواجه صعوبة في الحد من المخاطر الحقيقية.
يجب أن يأتي التغيير عاجلاً وليس آجلاً
لا تحتاج المؤسسات إلى تقليل مبادرات الذكاء الاصطناعي، بل تحتاج إلى المزيد من المبادرات المدروسة.
يتمثل التغيير الأول في كيفية تقييم نجاح الذكاء الاصطناعي. فإذا لم يُحدث تطبيق الذكاء الاصطناعي تغييرًا في كيفية اتخاذ القرارات أو في كيفية سير العمل بين الفرق، فسيظل تأثيره محدودًا، مهما بلغ انتشاره. ويُوفر قياس النجاح على مستوى سير العمل، بدلًا من مستوى المهمة، مؤشرًا أوضح على المجالات التي يُحقق فيها الذكاء الاصطناعي قيمة حقيقية.
يتمثل التحول الثاني في كيفية تحديد أولويات الاستثمار الأمني. فبدلاً من توزيع الضوابط على كل أداة تجريبية، ينبغي للمؤسسات تركيز الحماية حول الأنظمة التي تؤثر على التخطيط والعمليات واتخاذ القرارات. فهذه هي البيئات التي يتقاطع فيها الخطر والقيمة.
أما التحول الثالث فهو هيكلي. إذ تُدخل أنظمة الذكاء الاصطناعي أشكالاً جديدة من الملكية تتجاوز حدود التطبيقات التقليدية. فالنماذج، وبيانات التدريب، وقنوات البيانات، والمخرجات التي يُنتجها الذكاء الاصطناعي، جميعها تتطلب مساءلة واضحة. وبدون تحديد واضح للملكية، تصبح الحوكمة غير متسقة، ويصعب تحديد الثغرات الأمنية.
مجتمعة، تدفع هذه التغييرات المؤسسات بعيدًا عن تأمين النشاط ونحو تأمين النتائج.
بناء أنظمة ذكاء اصطناعي قابلة للتوسع فعلياً
المنظمات التي تربط بين تبني الذكاء الاصطناعي وتصميم سير العمل تحصل على مسار أوضح لتحقيق كل من القيمة والتحكم.
تصبح موارد الأمن أكثر فعالية عندما تُركز على الأنظمة الأكثر أهمية بدلاً من تشتيتها عبر تجارب منفصلة. وتكتسب القيادة رؤية أوضح لكيفية ترجمة استثمارات الذكاء الاصطناعي إلى تأثير عملي. ومع مرور الوقت، تصبح برامج الذكاء الاصطناعي أكثر استدامة لأنها مبنية على أنظمة منظمة بدلاً من أدوات متراكمة.
لا يزال الاستثمار في الذكاء الاصطناعي مستمراً، وسيستمر الإنفاق على الأمن في الارتفاع بالتوازي معه. وسيكمن الفرق في كيفية توظيف هذه الاستثمارات.
ستجد المؤسسات التي تواصل توسيع نطاق استخدام الذكاء الاصطناعي على مستوى المهام نفسها أمام مجموعة متنامية باستمرار من الأدوات غير المتصلة. أما تلك التي تصمم الذكاء الاصطناعي على مستوى سير العمل، فستضمن حماية أنظمة تستحق الحماية فعلاً.












