Connect with us

قادة الفكر

الذكاء الاصطناعي المظلل يكشف عن فشل أكبر في حوكمة الذكاء الاصطناعي

mm
A professional woman in an office at night uses a laptop with a glowing, abstract digital interface floating in the air. The interface shows connected data nodes and windows, symbolizing the

لسنوات، تم تعريف المخاطر الداخلية حول أسوأ السيناريوهات: الموظفون الخبثاء، والبيانات المسروقة، والضرر الذي يتم اكتشافه بعد الحادث. هذا التعريف كان دائمًا غير كامل. في عصر الذكاء الاصطناعي، أصبح غير مفيد بشكل فعال.

لا يبدأ معظم خطر المخاطر الداخلية مع الخبث. بل يبدأ مع العمل الروتيني: تلخيص وثيقة، أو الإجابة على عميل، أو تسريع تدفق العمل، أو إرسال رمز أسرع. وأكثر فأكثر، تتضمن تلك القرارات اليومية الآن الذكاء الاصطناعي.

لهذا السبب يهم الذكاء الاصطناعي المظلل. على نطاق واسع، يتم تعريف الذكاء الاصطناعي المظلل على أنه استخدام أدوات أو وكلاء أو تلقيمات الذكاء الاصطناعي خارج إشراف المؤسسة المعتمد. في معظم الحالات، لا يحاول الموظفون تجنب السياسة. إنهم يحاولون إنجاز عملهم. القضية الحقيقية هي أن الحوكمة لم تتماشى مع تغير طريقة العمل.

يمكن قياس هذا الفجوة الآن. وجدت أبحاث Ponemon الجديدة أن 92% من المنظمات تقول إن الذكاء الاصطناعي التوليدي قد غير كيفية وصول الموظفين للمعلومات ومشاركتها، ومع ذلك، فإن فقط 18% قد دمجت полностью حوكمة الذكاء الاصطناعي في برامج مخاطر المخاطر الداخلية. الذكاء الاصطناعي已经 متأصل في العمل اليومي. الإشراف لا يزال يلحق.

الذكاء الاصطناعي المظلل ليس مشكلة واحدة

أحد أكبر الأخطاء التي ترتكبها المنظمات هو معاملة الذكاء الاصطناعي المظلل على أنه خطر موحد. ليس كذلك.

هناك فرق معنوي بين استخدام الذكاء الاصطناعي لتلخيص البحث العام، ولصق العقود الداخلية في مساعد غير معتمد، والسماح لوكيل الذكاء الاصطناعي بالوصول إلى البيانات أو اتخاذ إجراء عبر أنظمة المؤسسة. يتغير الخطر حسب حساسية البيانات ومستوى الاستقلالية المشاركة والسلطة الممنوحة للنظام.

لهذا السبب، فإن الحظر العام نادرًا ما يعمل. لديهم тенденция إلى دفع السلوك إلى أبعد من مجال الرؤية دون معالجة الظروف التي جعلت السلوك جذابًا في المقام الأول. ولكن السياسات الم过رة لا تُفضل. إذا كان كل شيء مسموحًا به، تصبح الحوكمة مجرد تمرين ورقي.

من الأفضل هو التمييز بين:

  • مساعدة منخفضة الخطر، حيث يدعم الذكاء الاصطناعي العمل الروتيني مع تعرض محدود
  • تعامل بيانات عالية الخطر، حيث يتم إدخال المعلومات الحساسة أو تحويلها أو مشاركتها، و
  • السلطة المفوضة، حيث يُسمح لأنظمة الذكاء الاصطناعي بالوصول إلى البيانات أو تنسيقها أو اتخاذ إجراء عبر بيئات متصلة.

تعتبر الفئة الأخيرة التحول الحقيقي.

كما يتحرك الذكاء الاصطناعي أبعد من توليد المحتوى إلى الاسترجاع والتنسيق والتنفيذ، يتغير سؤال الأمان. القضية لم تعد مجرد استخدام أداة غير معتمدة. إنها ما السلطة التي تم منحها لنظام، ما البيانات التي يمكنه الوصول إليها، وما الذي يُسمح له بفعله مع هذا الوصول.

أصبحت وكلاء الذكاء الاصطناعي أكثر موثوقية، وأكثر اتصالاً، وأكثر قدرة على العمل بشكل مستقل. هذا هو السبب الذي يجعل نماذج مخاطر المخاطر الداخلية التقليدية تبدأ في إظهار حدودها.

لماذا يغير الذكاء الاصطناعي المظلل مع السلطة المفوضة نموذج الخطر

تم بناء معظم نماذج مخاطر المخاطر الداخلية لتقييم السلوك البشري: الإهمال، أو الإساءة، أو الخرق، أو النية الخبيثة. هذه الفئات لا تزال مهمة. لكنها لا تصل إلى الصورة الكاملة.

يصبح هذا واضحًا بشكل خاص في الذكاء الاصطناعي المظلل، حيث الأداة أو الوكيل ليس بالضرورة معاقبًا أو محكومًا أو حتى مرئيًا للمؤسسة. في هذه الحالات، الخطر ليس فقط أن الموظف يستخدم الذكاء الاصطناعي. بل إنه قد يستخدم نظامًا يتحكم به المستخدم مع وصول أو استقلالية أو تكنولوجيا لا تفهمها الشركة بشكل كامل.

اليوم، قد يكون للشخص وصول مشروع وقرار يبدو عاديًا. لكن في سيناريو الذكاء الاصطناعي المظلل، قد يتم نقل هذا القرار إلى مساعد غير معتمد أو إضافة أو وكيل أو تدفق عمل يمكنه أن يحمله إلى أبعد من ذلك، أو بسرعة أكبر، أو على نطاق أوسع مما قصده المستخدم. هذا هو العاقبة الحقيقية للسلطة المفوضة.

الموارد البشرية توفر النية أو الوصول أو الإشارة. نظام الذكاء الاصطناعي ينفذ بسرعة ومدى وثبات. معًا، يمكنهم تضخيم الأخطاء بطرق لم يتم تصميمها السيطرة التقليدية لاحتوائها.

القلق ليس أن أنظمة الذكاء الاصطناعي خبيثة. بل إنها يمكن أن تعمل على تعليمات معيبة، أو حكم ضعيف، أو تدفقات عمل غير آمنة بسرعة الآلة. وعندما يقع هذا النظام خارج الإشراف المعتمد، قد يكون للمؤسسة رؤية قليلة حول ما البيانات التي تمسها، أو إلى哪里 ذهبت هذه البيانات، أو ما الإجراءات التي تم اتخاذها، أو كيفية التدخل عندما شيء ي goes خطأ.

هذا ما يجعل السلطة المفوضة داخل الذكاء الاصطناعي المظلل مختلفًا بشكل جوهري عن استخدام الأدوات غير المعتمدة العادي. القضية لم تعد مقتصرة على موظف يلصق بيانات حساسة في واجهة خاطئة. بل تمتد إلى أنظمة غير معتمدة لاسترجاع المعلومات، وربط المهام، وربط التطبيقات المؤسسية، والعمل من أجل المستخدم بدون الحماية التي يفرضها بيئة معتمدة.

لهذا السبب، تحتاج فرق الأمان إلى نموذج أكثر دقة لمخاطر المخاطر الداخلية: واحد يأخذ في الاعتبار ليس فقط السلوك البشري، ولكن التفاعل بين النية البشرية وتنفيذ الآلة.

تكلفة الذكاء الاصطناعي المظلل مرئية بالفعل

هذه ليست مشكلة في المستقبل. التكاليف已经 تظهر في اتجاهات مخاطر المخاطر الداخلية الحالية.

وجدت أبحاث Ponemon لعام 2026 أن تكاليف مخاطر المخاطر الداخلية المرتبطة بالإهمال زادت بنسبة 17% على أساس سنوي إلى 10.3 مليون دولار أمريكي، مما ساهم في إجمالي تكلفة سنوية لمخاطر المخاطر الداخلية تبلغ 19.5 مليون دولار أمريكي. وتحدد التقرير الذكاء الاصطناعي المظلل كعامل مساهم رئيسي، مما يتحول سلوك الإنتاجية العادي إلى مصدر مستمر لتعرض البيانات.

المواد الحساسة يتم إدخالها في أدوات أو أدوات عامة غير معتمدة. أدوات ملاحظة الذكاء الاصطناعي تقوم بتسجيل الاجتماعات السرية. أدوات الوكيل تعمل مع رؤية محدودة عبر بيئات لم يتم تصميمها أبدًا لهذا المستوى من التفاعل المستقل.

هذه عادةً ليست أفعالًا خبيثة. إنها سلوكيات عمل عادية تتحول في أنظمة ذات حماية ضعيفة وإشراف غير كامل.

هذا ما يجعل الذكاء الاصطناعي المظلل مهمًا جدًا. إنه لا يُقدم فقط فئة جديدة من المخاطر. بل يزيد من حجم وسرعة وتكلفة الإهمال عن طريق جعل الأخطاء الصغيرة أسهل في التكرار وأصعب في الكشف.

لماذا حظر أدوات الذكاء الاصطناعي ليس الجواب

أدوات الذكاء الاصطناعي أصبحت الآن مفيدة جدًا، ومتاحة، ومتأصلة في العمل اليومي بحيث لا يمكن إدارتها من خلال الحظر فقط. عندما تعتمد المنظمات فقط على الحظر، غالبًا ما تدفع الاستخدام إلى قنوات أقل وضوحًا.

الاستجابة الأفضل تبدأ بالرؤية. تحتاج فرق الأمان إلى فهم أي أدوات الذكاء الاصطناعي يتم استخدامها، وما هي البيانات التي يتم إدخالها فيها، وما هي الإخراج التي يتم توليدها، وأي الأنظمة مسموح لها بالعمل من أجل المستخدم.

من المهم جدًا، يجب أن تعكس الحوكمة كيفية حدوث العمل بالفعل — وليس كيف تفترض السياسة أنه يحدث.

هذا يعني نقل حوكمة الذكاء الاصطناعي داخل إدارة مخاطر المخاطر الداخلية، بدلاً من معاملتها كمبادرة امتثال منفصلة. إذا كان الموظفون وأنظمة الذكاء الاصطناعي يصلون إلى المعلومات ويتحولون وينقلون المعلومات، فيجب أن يكونوا داخل نفس نموذج الرؤية والمساءلة والسيطرة.

المنظمات التي تحقق ذلك لن تكون تلك التي تحظر الأدوات الأكثر. سيكونون أولئك الذين يمكنهم التمييز بوضوح بين哪里 ينتهي التجربة المسئولة ويتبدأ التعرض المادي.

الذكاء الاصطناعي المظلل ليس إزعاجًا في الحوكمة. إنه إنذار مبكر أن العمل قد تغير بسرعة أكبر من الإشراف. التحدي الآن ليس إبطاء الأعمال. بل تطبيق نفس الانضباط الذي تحسن إدارة مخاطر المخاطر الداخلية إلى واقع تشغيلي جديد — واحد حيث الحكم البشري وتنفيذ الآلة يعملان جنبًا إلى جنب بشكل متزايد.

Rajan Koo هو المدير التقني والرئيس لفريق DTEX للتحقيقات والاستخبارات الداخلية (i3). وهو مسؤول عن تطوير وتطبيق وتشغيل التكنولوجيا لمنع المخاطر الداخلية من أن تصبح تهديدات داخلية. لعب Rajan دورًا حاسمًا في تأسيس نهج DTEX الأول لخصوصية إدارة المخاطر الداخلية. كما قاد عدة تحقيقات عالية المستوى لتهديدات داخلية أدت إلى محاكمة ومبرأة ناجحة.