Connect with us

إنفاق المزيد على أمن الذكاء الاصطناعي لا يقلل من أي من مخاطر الذكاء الاصطناعي الخاصة بك

قادة الفكر

إنفاق المزيد على أمن الذكاء الاصطناعي لا يقلل من أي من مخاطر الذكاء الاصطناعي الخاصة بك

mm

إن ميزانيات أمن الذكاء الاصطناعي تتزايد بسرعة. في العديد من المنظمات، تتزايد بسرعة أكبر من الأنظمة التي يُقصد حمايتها.

إن هذا الخلل سهل الإغفال. يستمر الاستثمار في الذكاء الاصطناعي في التCELERATION، حيث بلغ التمويل الخاص العالمي $33.9 مليار في عام 2025 وحده. وفي الوقت نفسه، يُطلب من قادة الأمن تقديم حسابات للمخاطر الجديدة المرتبطة بسلوك النموذج، وانتهاك البيانات، والتحكم العدواني. وقد كانت الاستجابة متوقعة: أدوات أكثر، ومراقبة أكثر، وميزانية أكثر.

من المغري تحويل هذا إلى محادثة حول تكلفة العمل، وسؤال بسيط حول مقدار ما تحتاج المنظمات إلى إنفاقه لحماية الذكاء الاصطناعي. لكن هذا ليس النهج الصحيح لمواجهة هذه المشكلة الجديدة. بدلاً من ذلك، تحتاج المنظمات إلى فحص ما إذا كان استثمارها في الذكاء الاصطناعي يحمي الأدوات الصحيحة.

عبر معظم الشركات، لا يزال الذكاء الاصطناعي يتم تقديمه على مستوى المهمة. تجرب الفرق تلخيصًا، ومساعدة في البرمجة، وتحليلات، أو تلقيم سير العمل لتحسين الإنتاجية الفردية. تقدم هذه الأدوات مكاسب محلية، لكنها نادرًا ما تغير كيفية اتخاذ القرارات أو كيفية تشغيل الأنظمة على مستوى أوسع. بدأ هذا الفجوة في الظهور في النتائج. في حين أن الانتشار واسع النطاق، فإن فقط حوالي 20٪ من المنظمات تبلغ عن تأثير معنوي على خط أساسي.

يتم تحويل استثمار الأمن جنبًا إلى جنب مع هذا التجربة. ومع ذلك، في العديد من الحالات، يتم تطبيقه على مجموعة متزايدة من الأدوات غير المرتبطة بدلاً من الأنظمة المتسقة التي تشكل كيفية تشغيل الأعمال الفعلية. يتم تقييم الذكاء الاصطناعي على مستوى المهمة، وأمان على مستوى النظام، وتصميمه أبدًا على مستوى سير العمل حيث يتم إنشاء القيمة الحقيقية.

توسع تبني الذكاء الاصطناعي أسرع مما يتم إدماجه

معظم عمليات نشر الذكاء الاصطناعي اليوم ضيقة التصميم. تم بناؤها لجعل المهام الفردية أسرع بدلاً من إعادة تشكيل كيفية تدفق العمل عبر الفرق أو الأنظمة.

قد تتبنى فريق المبيعات الذكاء الاصطناعي لكتابة رسائل البريد الإلكتروني أو تلخيص المكالمات. تستخدم فرق الهندسة الذكاء الاصطناعي لتسريع توليد الشفرة. تجرب فرق العمليات مع دعم التحليلات أو التنبؤ. كل هذه الحالات تقدم مكاسب إنتاجية قابلة للقياس على المستوى الفردي، وهذا غالبًا ما يكون كافياً لتبرير الاستثمار الأولي.

تبدأ التعقيدات عندما تتراكم هذه المكاسب المنعزلة.

كل نشر يطرح نماذج جديدة، ونمط الوصول إلى البيانات، وواجهات برمجة التطبيقات، والاعتماديات. مع مرور الوقت، تجد المنظمات نفسها تدير مجموعة متزايدة من قدرات الذكاء الاصطناعي التي لم يتم تصميمها أبدًا للعمل معًا. حتى الآن، لا يزال جزء كبير من الشركات في مراحل التجربة المبكرة، مع العديد من المبادرات التي لم يتم دمجها بعد في العمليات التجارية الأساسية.

يورث فريق الأمن هذا البيئة أثناء تشكيلها. يُطلب منهم حماية ليس نظامًا واحدًا، بل مجموعة متغيرة من الأدوات، والتركيبات، وتدفقات البيانات التي تتوسع مع كل تجربة جديدة. بدون هندسة موحدة، يصبح الأمن تمارين في التغطية بدلاً من التحكم.

المخاطر الحقيقية ليست الأدوات الفردية. إنها تفتيت النظام

مع استمرار تجربة الذكاء الاصطناعي، تبدأ توقعات القيادة في التحول. يطلب مجلس الإدارة والفرق التنفيذية كيف يترجم الإنفاق المتزايد على الذكاء الاصطناعي إلى نتائج أعمال قابلة للقياس.

عندما تفشل المبادرات المبكرة، نادرًا ما تبطئ المنظمات. إنها توسع جهودها. يتم إطلاق المزيد من الطائرات التجريبية. يتم تقديم المزيد من الأدوات. يتم إنشاء المزيد من التكاملات في البحث عن قيمة لم تظهر بعد. تشير التنبؤات بالفعل إلى أن أكثر من نصف مشاريع الذكاء الاصطناعي قد تفشل في الوصول إلى الإنتاج أو تحقيق النتائج المتوقعة في السنوات القليلة القادمة.

للفريق الأمني، يخلق هذا الدورة نوعًا جديدًا من المخاطر.

التحدي لم يعد فقط حماية التطبيقات أو النماذج الفردية. إنه إدارة بيئة حيث النظام الأساسي يتغير باستمرار. كل أداة جديدة تطرح هويات إضافية، وتدفقات بيانات، وسلوك نموذج يوسع سطح الهجوم قبل أن يتمكن المدافعون من فهمه بالكامل.

في هذا السياق، لا يقلل زيادة الإنفاق على الأمن من المخاطر. يمكن أن يزيد من التعقيد التشغيلي بدلاً من ذلك. حماية الأنظمة المتناثرة يتطلب أدوات أكثر، ومراقبة أكثر، وتواصل أكثر، لكنه لا يعالج القضية الأساسية، وهي غياب هيكل متسック لطريقة نشر الذكاء الاصطناعي واستخدامه.

يصبح الإنفاق على الأمن استراتيجيًا فقط عندما يصبح الذكاء الاصطناعي تشغيليًا

نحن في مكان رائع بسبب استثمار أمن الذكاء الاصطناعي؛ درجة الابتكار هي فلكية، وفي حين أن مستقبل استخدامات الذكاء الاصطناعي ساطع، فإن استثمار الأمن غالبًا ما يكون غير متصل بالplaces حيث يخلق الذكاء الاصطناعي قيمة فعلية.

عندما يتم نشر الذكاء الاصطناعي بشكل رئيسي كأدوات إنتاجية منفصلة، يُجبر جهود الأمن على اتباع هذا التفتيت. ينتهي الأمر بالفرق بحماية عشرات التطبيقات غير المرتبطة التي لها تأثير محدود على النتائج التجارية الأساسية.

تظهر القيمة الأكبر عندما يتم دمج الذكاء الاصطناعي في سير العمل التي تشكل كيفية تشغيل المنظمات. التخطيط، والتنبؤ، وتخصيص الموارد، وصنع القرار التشغيلي هي حيث يبدأ الذكاء الاصطناعي في التأثير على النتائج بطريقة معنوية. هذه هي البيئات التي يصبح فيها استثمار الأمن أكثر استراتيجية.

حماية أداة منفصلة تحمي مهمة. حماية نظام متكامل يحمي عملية أعمال.

هنا يصبح الفرق بين تبني المهمة وتصميم سير العمل حاسمًا. الذكاء الاصطناعي الذي لا يتم دمجه في كيفية اتخاذ القرارات سيتعثر في تحقيق تأثير قابل للقياس. الأمن الذي لا يتم محاذاته لأنظمة اتخاذ القرار سيتعثر في تقليل المخاطر المهمة.

يجب أن يأتي التغيير في وقت أقرب من الأقرب

المنظمات لا تحتاج إلى مبادرات أقل للذكاء الاصطناعي. تحتاج إلى مبادرات أكثر قصدية.

الانحراف الأول في كيفية تقييم نجاح الذكاء الاصطناعي. إذا لم يغير النشر كيفية اتخاذ القرارات أو كيفية تحرك العمل عبر الفرق، فإن تأثيره سيتعثر على مستوى محدود، بغض النظر عن مدى اتساعه. قياس النجاح على مستوى سير العمل بدلاً من مستوى المهمة يوفر إشارة أوضح إلى حيث يخلق الذكاء الاصطناعي قيمة فعلية.

الانحراف الثاني في كيفية تحديد الأولوية لاستثمار الأمن. بدلاً من توزيع المراقبة عبر كل أداة تجريبية، يجب على المنظمات أن تركز الحماية حول الأنظمة التي تؤثر على التخطيط، والتشغيل، وصنع القرار. هذه هي البيئات حيث تتقاطع المخاطر والقيمة.

الانحراف الثالث هو هيكلي. أنظمة الذكاء الاصطناعي تطرح أشكالًا جديدة من الملكية التي تمتد إلى ما وراء حدود التطبيقات التقليدية. النماذج، وبيانات التدريب، وخطوط أنابيب البيانات، والخروجات التي تم إنشاؤها بواسطة الذكاء الاصطناعي جميعها تتطلب مساءلة واضحة. بدون ملكية محددة، يصبح الحكم غير متسق، ويتعذر تحديد فجوات الأمن.

إذا تم اتخاذها معًا، فإن هذه التغييرات تنتقل المنظمات بعيدًا عن حماية النشاط وتتجه نحو حماية النتائج.

بناء أنظمة الذكاء الاصطناعي التي يمكنها بالفعل التوسع

المنظمات التي تتماشى مع تبني الذكاء الاصطناعي مع تصميم سير العمل تكتسب طريقًا أوضح إلى القيمة والتحكم.

تكون موارد الأمن أكثر فعالية عندما يتم التركيز عليها على الأنظمة التي تهم أكثر بدلاً من توزيعها عبر تجارب منفصلة. يكتسب القيادة رؤية أفضل حول كيفية ترجمة استثمارات الذكاء الاصطناعي إلى تأثير تشغيلي. مع مرور الوقت، يصبح برامج الذكاء الاصطناعي أكثر استدامة لأنها مبنية على أنظمة متسقة بدلاً من أدوات متراكمة.

لا يتباطأ استثمار الذكاء الاصطناعي. سيستمر الإنفاق على الأمن في الارتفاع جنبًا إلى جنب معه. الفرق سيكون في كيفية تطبيق هذه الاستثمارات.

المنظمات التي تستمر في توسيع الذكاء الاصطناعي على مستوى المهمة ستجد نفسها تحمي سطحًا متزايدًا من الأدوات المنفصلة. تلك التي تصمم الذكاء الاصطناعي على مستوى سير العمل ستكون تحمي أنظمة تهم بالفعل حمايتها.

Steve Povolny, VP of AI Strategy & Security Research, Exabeam هو محترف أبحاث أمني متمرس مع أكثر من 15 عامًا من الخبرة في إدارة فرق أبحاث الأمن. لديه سجل حافل بالتعرف على نقاط الضعف وتنفيذ حلول فعالة للتخفيف من حدتها.