اتصل بنا للحصول على مزيد من المعلومات

تسليط الضوء على نقطة الضعف في إدارة مخاطر الأعمال: كيف يُعيد الذكاء الاصطناعي الخفي تعريف مشهد التهديدات على الأجهزة المحمولة

قاده التفكير

تسليط الضوء على نقطة الضعف في إدارة مخاطر الأعمال: كيف يُعيد الذكاء الاصطناعي الخفي تعريف مشهد التهديدات على الأجهزة المحمولة

mm

يُحدث الذكاء الاصطناعي ثورة في أساليب العمل. فمن تلخيص الوثائق وصياغة العقود إلى توليد البرامج وأتمتة سير العمل، أصبحت أدوات الذكاء الاصطناعي جزءًا لا يتجزأ من العمليات التجارية اليومية. ومع ذلك، فإلى جانب الاستخدام المُعتمد للذكاء الاصطناعي داخل المؤسسات، هناك اتجاه متزايد يُعرف باسم "الذكاء الاصطناعي الخفي".-الاستخدام غير المصرح به لتطبيقات الذكاء الاصطناعي دون إشراف رسمي من فرق تكنولوجيا المعلومات أو فرق الأمن.

لا يُعدّ الذكاء الاصطناعي الخفي مجرد انتهاك لسياسات تكنولوجيا المعلومات، بل يُمثّل ثغرة هيكلية في الحوكمة عند تقاطع الهوية وحماية البيانات والامتثال والأنظمة المستقلة الناشئة. ومع توسّع قدرات الذكاء الاصطناعي، لا سيما في بيئات الأجهزة المحمولة، تواجه المؤسسات تهديدات متزايدة بسرعة لم تُصمّم ضوابط الأمان التقليدية لمواجهتها.

الهاتف المحمول: عامل مضاعف لمخاطر الذكاء الاصطناعي الخفي

مع تسارع انتشار استخدام الأجهزة المحمولة، يتزايد خطر الذكاء الاصطناعي الخفي. فقد أصبحت الهواتف الذكية والأجهزة اللوحية بمثابة المركز العصبي التشغيلي للمؤسسات، حيث تدمج الهوية والمراسلة والوصول إلى الخدمات السحابية في نقطة نهاية واحدة تعمل باستمرار. وفي الوقت نفسه، تتزايد تطبيقات الذكاء الاصطناعي. تغمر متاجر التطبيقاتمما يسمح للموظفين بنشر قدرات الذكاء الاصطناعي فورًا، غالبًا دون إشراف قسم تقنية المعلومات. في الواقع، رصدت شركة Lookout أكثر من 25,000 تطبيق جوال مزود بقدرات الذكاء الاصطناعي موجودة بالفعل في متجر تطبيقات Apple ومتجر Google Play، مما يؤكد مدى سرعة تطور هذا الانتشار على مستوى الأجهزة المحمولة.

مع تداخل التنقل والذكاء الاصطناعي غير المصرح به، تتزايد مخاطر تعرض المؤسسات للخطر، مما يؤكد حقيقة أساسية: إن المخاطر المتعلقة بالهواتف المحمولة هي مخاطر تجارية.

الذكاء الاصطناعي الفاعل: الجهات الفاعلة الرقمية المستقلة داخل المنظمة

وكيل منظمة العفو الدولية يدخل يمثل هذا تحولاً جذرياً في إدارة مخاطر المؤسسات. فعلى عكس الأدوات التوليدية السلبية التي تنتج المحتوى استجابةً للمطالبات فقط، صُممت الأنظمة الذكية للتخطيط واتخاذ القرارات وتنفيذ الإجراءات بشكل مستقل. فهي قادرة على بدء الاتصالات، وتفعيل المعاملات المالية، وتعديل السجلات، والتفاعل مع تطبيقات المؤسسة، وربط مسارات العمل متعددة الخطوات دون إشراف بشري. وبذلك، تعمل هذه الأنظمة كعناصر فاعلة رقمية داخل المؤسسة.

عندما تعمل هذه القدرات خارج أطر الحوكمة المعتمدة، فإنها تُضاعف المخاطر بسرعة فائقة. القرارات التي كانت تتطلب سابقًا حكمًا بشريًا، يُمكن الآن تنفيذها فورًا وبشكل متكرر وعلى نطاق واسع. تُحوّل أذونات الوصول، وتكامل واجهات برمجة التطبيقات، والصلاحيات المُفوضة هذه الأنظمة من أدوات استشارية إلى عوامل تشغيلية قادرة على نقل البيانات، وتعديل الأنظمة، وبدء عمليات الأعمال.

على سبيل المثال، قد يقوم مساعد ذكاء اصطناعي يعمل على الهاتف المحمول، ويتمتع بإمكانية الوصول إلى البريد الإلكتروني للشركة والتخزين السحابي، بتلخيص مواد مجلس الإدارة الحساسة بشكل تلقائي وإرسالها إلى خدمة ذكاء اصطناعي خارجية "لتحليلها". حتى لو تم ذلك بنية حسنة، فإن تداعيات الحوكمة وخيمة: فقد تتسرب المعلومات السرية من بيئات خاضعة للرقابة، وقد تُفعّل الالتزامات التنظيمية، وقد تكون سجلات التدقيق غير مكتملة، وقد تُنتهك متطلبات إقامة البيانات. لا يقتصر الخطر على تسريب البيانات فحسب، بل يتعداه إلى تفويض السلطة التشغيلية لأنظمة قد لا تكون مرئية أو معتمدة أو خاضعة للرقابة.

الحوكمة وظهور معيار ISO 42001

مع تسارع وتيرة مخاطر الذكاء الاصطناعي، تبرز أطر حوكمة عالمية لفرض هيكلية ومساءلة. ومن أبرزها معيار ISO/IEC 42001، وهو المعيار الدولي لأنظمة إدارة الذكاء الاصطناعي. ISO 42001 يتطلب ذلك من المؤسسات تطبيق عمليات حوكمة قائمة على المخاطر للإشراف على أنظمة الذكاء الاصطناعي ومراقبتها وإدارتها بشكل مستمر.

لا يقتصر هذا المعيار على تطبيقات الذكاء الاصطناعي التقليدية فحسب، بل يشمل أيضًا أنظمة الذكاء الاصطناعي المستقلة القادرة على العمل بشكل مستقل. يجب على المؤسسات إثبات الشفافية والتحكم وإمكانية التتبع في استخدام الذكاء الاصطناعي داخل بيئاتها. يُقوّض الذكاء الاصطناعي غير الرسمي هذا الالتزام بشكل مباشر. فعندما يستخدم الموظفون أدوات الذكاء الاصطناعي خارج القنوات المعتمدة، تفقد المؤسسات قدرتها على فرض رقابة شاملة وموثوقة على الذكاء الاصطناعي.

في القطاعات الخاضعة للتنظيم، بما في ذلك الرعاية الصحية والخدمات المالية والحكومة والبنية التحتية الحيوية، تُعدّ هذه الفجوة في الحوكمة ذات عواقب وخيمة. إذ يُمكن أن يُؤدي الاستخدام غير المُدار للذكاء الاصطناعي إلى مخاطر جسيمة تتعلق بالامتثال لقوانين الخصوصية ولوائح حماية البيانات والالتزامات التعاقدية.

تعجز ضوابط الأمان التقليدية عن تلبية احتياجات الأجهزة المحمولة

تفترض العديد من المؤسسات أن ضوابط الأمان الحالية - مثل بوابات البريد الإلكتروني، ومنصات حماية نقاط النهاية، وCASBs - كافية لإدارة مخاطر الذكاء الاصطناعي. لكن في الواقع، هي ليست كذلك. لستيمكن للذكاء الاصطناعي الخفي، لا سيما في بيئات الأجهزة المحمولة حيث تتم جميع الأنشطة على الهواتف الذكية والأجهزة اللوحية، أن يتجاوز ضوابط أجهزة الكمبيوتر المكتبية ويتخطى مراقبة الشبكة التقليدية. وبدون رؤية شاملة لتطبيقات الأجهزة المحمولة، تفتقر فرق الأمن إلى المعلومات اللازمة لاكتشاف تسريب البيانات المدفوع بالذكاء الاصطناعي، أو التشغيل الآلي غير المصرح به، أو نشاط النظام المستقل الذي يتجاوز ضوابط الحوكمة.

ضرورة الامتثال: تحديد تطبيقات الذكاء الاصطناعي على الأجهزة المحمولة

تماشياً مع معيار ISO 42001 والمتطلبات التنظيمية الناشئة، تحتاج المؤسسات إلى قدرات أمنية قادرة على تحديد تطبيقات الجوال المدعومة بالذكاء الاصطناعي، واكتشاف استخدام الذكاء الاصطناعي غير المصرح به أو عالي الخطورة، ومراقبة تدفق البيانات بين تطبيقات الذكاء الاصطناعي وأنظمة المؤسسة، وتقييم أنماط سلوك هذه التطبيقات، وتطبيق ضوابط السياسات مباشرةً على نقطة نهاية الجوال. أصبحت منتجات الأمان القادرة على تصنيف وتحليل تطبيقات الجوال المدعومة بالذكاء الاصطناعي - لا سيما تلك التي تتمتع بقدرات مستقلة - أدوات أساسية للامتثال وليست مجرد تحسينات اختيارية.

بدون معرفة التطبيقات المحمولة التي تتضمن محركات الذكاء الاصطناعي، لا تستطيع المؤسسات إجراء تقييمات فعّالة لمخاطر الذكاء الاصطناعي، أو توثيق الرقابة، أو تطبيق ضوابط الحوكمة. ومع ازدياد دمج الذكاء الاصطناعي في تطبيقات الإنتاجية، ومنصات المراسلة، وأدوات سير العمل، يجب أن يتطور الكشف عنه ليتجاوز تحديد البرامج الضارة التقليدي، ليشمل تحليل السلوك، وتحديد الصلاحيات، والمراقبة المستمرة للوصول إلى البيانات ونقلها.

دعوة إلى العمل

لا يُمثل الذكاء الاصطناعي الخفي مصدر قلق مستقبلي، بل هو مُدمج بالفعل في الأجهزة المحمولة التي تُشغّل أعمال المؤسسات. ومع تسارع وتيرة تبنيه، ستتسع فجوات الحوكمة أولاً -وبسرعة- على الأجهزة المحمولة. يجب على قادة الأمن معرفة تطبيقات الذكاء الاصطناعي الموجودة على أجهزة الشركات والأجهزة الشخصية، واكتشاف السلوكيات المُريبة داخل تطبيقات الجوال، ومراقبة تدفقات البيانات المدفوعة بالذكاء الاصطناعي الخارجة من نقاط النهاية. ولأن الذكاء الاصطناعي الخفي يزدهر ضمن حركة مرور البيانات المشفرة على الأجهزة المحمولة وأنظمة التطبيقات، فإن الامتثال يعتمد الآن على إمكانيات الأمان المُدمجة في الأجهزة المحمولة والتي تكشف عن نشاط الذكاء الاصطناعي وتُفعّل ضوابط الحوكمة.

مع إعادة تشكيل الذكاء الاصطناعي لعمليات الأعمال، فإن إدارة الذكاء الاصطناعي تعني في نهاية المطاف تأمين الأجهزة المحمولة التي يحملها الموظفون كل يوم.

جيم دولتشي هو الرئيس التنفيذي ورئيس مجلس الإدارة في مراقبةلقد كان مؤسسًا لأربع شركات تقنية ناجحة وشغل مناصب تنفيذية في كل من شركة جونيبر نتوركس وشركة أكاماي تكنولوجيز. انضم جيم إلى شركة لوك آوت في مارس 2014 لتوجيه شركة الأمن السيبراني إلى المرحلة التالية من النمو، بما في ذلك إعادة تصميم منتجات لوك آوت وقيادتها وقوتها العاملة لخدمة الشركات الكبيرة والوكالات الحكومية التي تسعى إلى الاستفادة من مزايا التنقل دون التضحية بالأمن.