Connect with us

كيف يجب على الشركات التعامل مع أزمة تطبيق الذكاء الاصطناعي؟

قادة الفكر

كيف يجب على الشركات التعامل مع أزمة تطبيق الذكاء الاصطناعي؟

mm

حوسبة غير شخصية

لقد دفع التطور التكنولوجي لسنوات عديدة برغبة في جعل الحوسبة أكثر سهولة وصولاً. من الهواتف الذكية إلى أجهزة التابلت واللابتوب والتكنولوجيا القابلة للارتداء، هناك اتجاه عام لجعل أجهزة الكمبيوتر وقدراتها أكثر شخصنة. فكر فقط في التسميات التي تستخدمها ركائز الصناعة: “الحاسوب الشخصي” أو PC؛ “آي” بود، باد، فون، وغيرها. كل هذه الأجهزة مصممة لتكون رفيقة شخصية للمستخدم، تساعده في简ification تجربته الرقمية، وبالتالي حياته.

يتجه تطوير الذكاء الاصطناعي (AI) – وخاصة النماذج اللغوية الكبيرة (LLMs) والحلول الوكيلية – بشكل كبير في نفس الاتجاه. مثل الحاسوب الشخصي وآيفون، أدوات الذكاء الاصطناعي مثل ChatGPT جعلت أنشطة الحوسبة مثل البحث والتعديل والتحليل أكثر سهولة للجمهور العام. ولكن مع زيادة سهولة الوصول، زادت المخاطر.

سواء كان ذلك من خلال مكونات معممة أو فهرسة محركات البحث غير المقصودة، فإن التهديدات لاستخدام الذكاء الاصطناعي بشكل خاص تصبح أكثر صعوبة في الحماية. أضف إليها عدم اليقين حول من يستخدم الأدوات، وستواجه الشركات عاصفة مثالية من المخاطر المتزايدة والحماية غير الكافية. مع وعد أدوات الذكاء الاصطناعي وعدم اليقين حول كيفية حمايتها، ماذا تفعل شركة تقنية متقدمة؟

نمو التطبيقات غير المصرح بها للذكاء الاصطناعي

مع أكثر من 700 مليون مستخدم يوميًا في عام 2025، نمت استخدام ChatGPT أكثر من 4 مرات سنويًا. حتى الآن، هناك فقط خمسة ملايين من هؤلاء المستخدمين هم عملاء أعمال يدفعون. هذا يجعل الباقي البالغ 695 مليونًا أو أكثر من أعضاء قاعدة المستخدمين إما مستخدمين شخصيين أو مستخدمين أعمال غير مصرح لهم. يبدو هذا الرقم كبيرًا حتى تذكر أن ChatGPT ليس الحل الوحيد للذكاء الاصطناعي في السوق. في الواقع، إنه بعيد عن ذلك – الانفجار المعاصر لتطور الذكاء الاصطناعي والتعلم الآلي أنتج مئات الآلاف من النماذج والحلول الجديدة، العامة والخاصة.

对于 الشركات، نمو حلول الذكاء الاصطناعي قد أدى إلى ظهور بعد جديد من مشهد التهديدات السيبرانية يُعرف باسم “الذكاء الاصطناعي المظلم”. مثل ظاهرة “التكنولوجيا المظلمة”، يعتمد هذا المفهوم على استخدام الموظفين لحلول الذكاء الاصطناعي دون التحقق المسبق والموافقة الصريحة من قبل المنظمة. هذا يتجاوز تمامًا جميع الإشرافات الأمنية، مما يؤدي إلى سيناريوهات يمكن فيها للموظفين استخدام حلول قد تكون خطيرة أو غير آمنة للعمل الحساس.

استخدام الذكاء الاصطناعي المظلم شائع ومتنامي. وجد تقرير أن أكثر من 320 تطبيقًا للذكاء الاصطناعي غير المصرح به يتم استخدامه في المتوسط لكل شركة. كل تطبيق غير مصرح به من هذه التطبيقات، واستخدامه من قبل الموظفين، يوسع مشهد التهديدات أكثر.

المخاطر الكامنة لتحميل الذكاء الاصطناعي

التهديدات المرتبطة بتحميل الذكاء الاصطناعي متعددة و، للأسف، تتوسع باستمرار. بعضها، مثل تسميم البيانات، وحقن البرمجة، وتنفيذ النموذج، وتنقيب البيانات، هي معروفة جيدًا. هذه المحاولات المباشرة للاستغلال والتحكم في الذكاء الاصطناعي يمكن أن تمكن الجهات الخبيثة من الوصول إلى بيانات الشركة الحساسة والأنظمة الداخلية. بالنظر إلى هذا الخطر، بدأت الشركات في حماية نفسها ضد هذه الهجمات.

لكن الشركات يمكنها فقط حماية نفسها من التهديدات التي تعرفها. فكر في تأمين قلعة قديمة. الأسوار، وأبراج المراقبة، والبوابات، والخنادق، وغيرها تساعد في تأمين القلعة ضد الأعداء والغزاة الخارجيين. ولكن ماذا لو كان طاقم المطبخ يمتلك ممرًا سريًا يتجاوز الأسوار الخارجية؟ أو حارس فموي يتم سماعه يتحدث عن تغييرات الدور في الحانة المحلية؟ أي من هذه التهديدات غير المعروفة يمكن أن تساعد اللصوص على تجاوز الأمان واختراق الأسوار الداخلية.

الذكاء الاصطناعي المظلم له نفس التأثير على أمان بيانات الشركة. حتى استخدام حلول LLMs غير المصرح بها بالنيات الحسنة يمكن أن يعني الكارثة لحماية البيانات الحساسة، حيث يمكن لأي حل غير آمن أن يخدم كبوابات للجهات الخبيثة. استخدام أي نموذج لغوي يزيد بشكل طبيعي من خطر مشاكل مثل الاحتفاظ بالبيانات، وحقن البرمجة، أو انحياز النموذج، كل منها يتطلب إجراءات أمنية ذات صلة. هذا يزيد من مخاطر انتهاكات البيانات، وانتهاكات الامتثال، وأعطال التشغيل، والتي غالبًا ما يتم تحديدها بعد أن يتم إحداث الضرر بالفعل.

تأسيس السيطرة على حلول الذكاء الاصطناعي

مع استمرار نمو استخدام الذكاء الاصطناعي على كل من مستوى الشخص والشركة، من المهم أن تأخذ المنظمات السيطرة على هذه الحلول قبل أن يتجاوز استخدامها السيطرة. يتضمن تأمين الذكاء الاصطناعي للشركة وحماية ضد مخاطر الذكاء الاصطناعي غير المصرح به:

  1. الحصول على رؤية شاملة. كما ذكرنا، لا يمكنك حماية بياناتك ضد التهديدات التي لا تعرفها. يبدأ الأمن مع الإشراف عبر جميع حلول الذكاء الاصطناعي التي يستخدمها موظفوك – المصرح بها وغير المصرح بها. هذا أسهل قيل منه، ولكن يمكن لحل وسيط أمان الوصول إلى السحابة (CASB) مساعدتك في تأسيس رؤية مستمرة لاستخدام التطبيقات من قبل الموظفين.
  2. إجراء تقييمات مخاطر شاملة. يجب على الفرق إجراء جهود إدارة المخاطر الثالثة (TPRM) لضمان تقييم جميع حلول الذكاء الاصطناعي لأمانها ومخاطرها المحتملة. يجب أن تمتد هذه الجهود أيضًا إلى مستوى الرابع، حيث بدأت التطبيقات المصرح بها مثل منصات إدارة العلاقات مع العملاء ومنصات الإنتاجية في دمج قدرات LLMs الخارجية في منصاتها. يجب أن تتوافق هذه الحلول الخارجية مع معايير الأمان نفسها التي تتبعها أي تطبيق داخلي مصرح به.
  3. تأسيس إطارات الحوكمة. مع هذا الإشراف عبر جميع الحلول وفهمها، يمكن للمنظمات تطوير وتنفيذ إطارات سياسة حوكمة الذكاء الاصطناعي المستمرة عبر نظام تطبيقاتها. مثل سياسات الوصول إلى البيانات، يمكن لهذه إطارات الحوكمة مساعدتك في التحكم في أنواع حلول الذكاء الاصطناعي التي يمكن للموظفين الوصول إليها، والمعلومات التي يمكنهم مشاركتها، وشفافية استخدامهم اليومي.
  4. تأتمة الكشف عن المخاطر. يجعل نمو استخدام الذكاء الاصطناعي التكشف والاستجابة اليدوية للمخاطر قريبًا من المستحيل. يمكن أن تساعد تأتمة هذه العمليات بناءً على سياسات الحوكمة وسلوك المستخدم المتوقع في تحديد الشذوذ بشكل استباقي وحد من تأثيرها الأمني الأوسع.
  5. شرح التوقعات للموظفين. أهم جزء في تبني الذكاء الاصطناعي بشكل آمن هو موظفوك. سيساعد توفير التدريب الكافي ووضع التوقعات الواضحة في منع استخدام الذكاء الاصطناعي الخطر وفي نفس الوقت تعزيز استخدام الحلول المصرح بها والمحميّة.

استدامة تبني الذكاء الاصطناعي بشكل آمن

من خلال تأسيس هذه الإجراءات الأمنية الاستباقية، تكتسب الشركات رؤية أكثر شمولاً لطرق استخدامها لحلول الذكاء الاصطناعي – سواء كانت مصرح بها أو في “الظلال”. لهذا التأثير الفوري على الأمان، حيث تساعد الفرق على تحديد المخاطر والتهديدات الحالية واتخاذ الإجراءات لتصحيحها.

أهم من ذلك، مع ذلك، أنه يضع هذه الشركات في وضع أفضل للنجاح المستدام في استخدام الذكاء الاصطناعي. من خلال إنشاء الأسس الفنية لتبني الذكاء الاصطناعي بشكل آمن وثقافة أمنية أولية بين مستخدمي الذكاء الاصطناعي، يساعد هذا النهج المتعدد الجوانب في إنشاء نموذج مستدام لمستقبل أدوات الذكاء الاصطناعي. مع دعم فني وكافي التدريب، يمكن للموظفين تحقيق فوائد الذكاء الاصطناعي دون تحمل مخاطره الملازمة.

المنظمات التي تقوم بهذه التغييرات في وقت مبكر ستكون أفضل استعدادًا لمواجهة مستقبل حلول الذكاء الاصطناعي، أياً كانت. وضع العمل في البداية لإنشاء أساس قوي – بدلاً من مجرد السعي لتحقيق علامة التبني للذكاء الاصطناعي – سوف يضع الفرق في أفضل وضع ممكن للنجاح المستدام في استخدام الذكاء الاصطناعي.

ثياغا فاسوديفان هو محترف برمجيات عالي الطاقة يعمل حاليًا كنائب الرئيس التنفيذي لمنتجات Skyhigh Security ، حيث يقود إدارة المنتجات وتصميمها وتسويق المنتجات واستراتيجيات GTM. مع خبرة غنية ، ساهم بنجاح في بناء المنتجات في كل من البرمجيات المؤسسية القائمة على SAAS (Oracle و Hightail - السابق YouSendIt و WebEx و Vitalect) وإنترنت المستهلك (Yahoo! Messenger - الصوت والفيديو).

يتميز بالالتزام بعملية تحديد مشاكل ومواقع استخدام المستخدم النهائي الأساسية ويتفاخر بقيادة مواصفات وتطوير منتجات وخدمات تقنية عالية لتلبية هذه التحديات ، بما في ذلك مساعدة المنظمات على التنقل في التوازن الدقيق بين المخاطر والفرص. يحب ثياغا تعليم وتوجيه وتمت له الفرصة للتحدث في أحداث معروفة مثل RSA و Trellix Xpand و MPOWER و AWS Re: invent و Microsoft Ignite و BoxWorks و Blackhat. يزدهر في تقاطع التكنولوجيا وحل المشكلات ، ويهدف إلى دفع الابتكار الذي لا يعالج فقط التحديات الحالية ولكن أيضًا يتوقع الاحتياجات المستقبلية.