Connect with us

خطر لا إلى الذكاء الاصطناعي

قادة الفكر

خطر لا إلى الذكاء الاصطناعي

mm

لقد اتصلت بمكالمة شركة مع عميل محتمل الأسبوع الماضي. كان جميع أفراد الأمن والشبكات هناك ، بالإضافة إلى الإدارة. متحدثون مختلفون يغطون مواضيع اللحظة. ثم بدأ شخص ما في شرح كيفية استخدام فرقهم الفنية للذكاء الاصطناعي في عملهم اليومي.

كان المتحدث متحمسًا. لقد وجد طريقة لضغط ثلاثة أيام من العمل اليدوي لنسخ ولصق إلى بضع دقائق باستخدام أدوات الذكاء الاصطناعي. رائع ، أليس كذلك؟ أفهم ما كان يفعله – والسبب في ذلك. هذا هو وعد الذكاء الاصطناعي!

لكن كما الشخص الأمني في الغرفة ، أفكر: “أوه إلهي”. “ما الأداة التي تستخدمها؟ من يمتلك هذه الأداة؟” لأنه يضع معلومات العملاء في هذه المنصات – بيانات التسعير. ربما المعلومات المالية؟ ما قد يكون. كل ذلك لتسريع تدفق العمل.

لذلك ، سألت السؤال الواضح: “هل لديك سياسة للذكاء الاصطناعي؟” ذهبنا للبحث. وجدنا مقطعًا مدفونًا في استخدام مقبول. شيء غامض حول أدوات الذكاء الاصطناعي. هل يقرأها أي شخص حقًا؟ ربما لا. تتوقيع عليه خلال عملية التأهيل ، وأنت انتهيت.

أشخاصك يستخدمون بالفعل الذكاء الاصطناعي

هنا ما تعلمته من الحديث مع الشركات عبر جميع القطاعات: الذكاء الاصطناعي موجود في كل مكان ، سواء كنت تعترف بذلك أو لا. تؤكد الأبحاث الحديثة هذه الحقيقة – 75% من العمال يستخدمون الآن الذكاء الاصطناعي في العمل ، و 거의 ضعف ذلك في ستة أشهر فقط.

الأسبوع الماضي في هيوستن ، التقيت رجلاً الذي شركته ت钻 للنفط. لديهم منصة ذكاء اصطناعي تحليلية لتكوين التربة والأنماط الجوية لتحسين مواقع الحفر. شرح لي كيف يعتبرون بيانات هطول الأمطار – “كنا نعرف أنه تم هطول الأمطار 18 يومًا أكثر مما كان في هذه المنطقة ، لذلك من المحتمل أن يكون سعة النفط أعلى ، مما يسمح للمحفورين بالدخول إلى الأعماق”.

في غضون ذلك ، كنت أستخدم الذكاء الاصطناعي لإنشاء جدول زمني لألمانيا. تحدثت مع شركات في مجال الرعاية الصحية التي تستخدمه من أجل منصات التليرعاية. فرق المالية التي تعمل على نماذج المخاطر. حتى التقيت شخصًا يدير مشروع عصير الليمون الذي يستفيد من الذكاء الاصطناعي بطريقة ما.

النقطة هي: الذكاء الاصطناعي موجود في كل قطاع ، كل تدفق عمل. إنه لا يأتي – إنه هنا. ومعظم هذه المنظمات في نفس القارب الذي كنا عليه. يعرفون أن أشخاصهم يستخدمونه. هم فقط لا يعرفون كيف يديرونه.

تكنولوجيا المعلومات المظلة تصبح خطيرة بسرعة

هل تعرف ماذا يحدث عندما تقول للناس أنهم لا يستطيعون استخدام الذكاء الاصطناعي؟ إنه تمامًا مثل قولك لمراهق أن لا يشرب. تهانينا ، الآن سيكونون هم الذين يشربون بطرق غير آمنة ، لأنك خلقت حظرًا.

الأرقام تثبت هذه الحقيقة: 72% من استخدام الذكاء الاصطناعي في الشركات هو تكنولوجيا المعلومات المظلة ، حيث يستخدم الموظفون حساباتهم الشخصية للوصول إلى تطبيقات الذكاء الاصطناعي.

الناس يذهبون لشراء جهاز كمبيوتر محمول ثاني. يستخدمون هاتفهم الشخصي الذي لا يحميها أمان الشركة. ثم يستخدمون الذكاء الاصطناعي على أي حال. فجأة تفقد الرؤية وتخلق الفجوات التي كنت تحاول منعها.

لقد رأيت هذا النمط من قبل. فرق الأمن التي تقول “لا” لكل شيء تنتهي بهم إلى دفع الناس إلى التخفي – ويفقدون جميع الإشراف على ما يحدث بالفعل.

الأمان يصبح العدو

هناك هذا الاعتقاد بأن فرق الأمن هي “الرجال السيئون في القبو”. الناس يفكرون: “أوه ، الأمن سيقول لا على أي حال ، لذلك لا بأس بهؤلاء الرجال. سأفعل ذلك على أي حال”.

لقد خلقنا هذا سوء الفهم. ومع الذكاء الاصطناعي ، الناس متحيزون لافتراض أننا سوف نغلقهم ، لذلك لا يباليون بالسؤال.

لدي تطبيق مطور جاء إلي بعد عرض مؤتمر. يستخدم واجهات برمجة التطبيقات كل يوم ويحاول جلب انتباه فريق الأمان بشأن الاختبار والتحقق. لكنه قرر عدم السؤال لأنها ظنت أنهم سوف يقولون لا.

عجز الثقة يكلفك كل شيء

هنا المحادثة التي تريدها: شخص من التسويق يأتي إليك ويقول: “مرحبا ، أريد استخدام هذه الأداة الذكاء الاصطناعي. ما موقفنا منها؟ كيف أستخدمها بأمان؟” هذا هو الطريق الصحيح للشراكة مع الأمان.

سنقوم بفحصه. نفهم أن الذكاء الاصطناعي سوف يكون جزءًا من الأعمال. لسنا سوف نقول لا له – نريد أن الناس يستخدموه بأمان. لكننا نحتاج إلى هذه المحادثة أولاً.

عندما يفترض الناس أن الأمان سوف يمنع كل شيء ، يتوقفون عن السؤال. يوقعون بالبريد الإلكتروني الشخصي ، ويبدأون في تغذية بيانات الشركة إلى منصات غير موثوقة ، وتفقد جميع الرؤية والسيطرة. النتيجة متوقعة: 38% من الموظفين يشاركون معلومات عمل حساسة مع أدوات الذكاء الاصطناعي بدون إذن صاحب العمل.

المنظمات سوف تستخدم الذكاء الاصطناعي مهما كان الأمر. السؤال هو: كيف نضمن أن موظفينا يستطيعون استخدامه بأمان بدون تعريض بيانات الشركة أو الخصوصية أو الأمان للمخاطر؟

ابداً بنعم ذكية ، لا نعم شاملة

هنا ما يعمل بالفعل: التواصل النشط. أرسل نشرة إخبارية أو قم بويبينار لمدة 30 دقيقة تقول: “نسمح باستخدام الذكاء الاصطناعي داخل المنظمة. هنا كيفية القيام بذلك بأمان”. سجل الجلسة لأولئك الذين يفوتونها.

أظهر أمثلة على موظفين الذين شريكوا مع الأمان بنجاح. اجعل هذه الشراكات مرئية بدلاً من كونك كيانًا مظلمًا يفترض الناس أنه سوف يغلقهم.

تحتاج إلى بناء الثقة مع مرور الوقت بين الأمان والموظفين. في النهاية ، كلنا نستخدم الذكاء الاصطناعي بطرق كبيرة وصغيرة. لقد استخدمته لتخطيط رحلتي إلى ألمانيا – قلت له إنشاء جدول زمني لمدة ثلاثة أيام وحصلت على رحلة رائعة.

من منظور تنظيمي ، нам нужно أن ندرك أين يجلس الذكاء الاصطناعي في الأعمال. هل سوف يزيد من الإيرادات؟ ربما. حالة الأعمال واضحة: الذكاء الاصطناعي انتقل من “تجربة” إلى “أساسي” ، مع قفزة في الإنفاق على الشركات بنسبة 130%. ماذا نفعل؟ كيف ن 제공 الحماية مع تمكين الإنتاجية؟

الهدف ليس السيطرة الكاملة ، هذا مستحيل. الهدف هو تبني الذكاء الاصطناعي على علم مع حواجز تعمل في الواقع. المخاطر الجديدة للأمان هي أن تصبح معزولة عن استخدام الذكاء الاصطناعي – استخدام يحدث مع أو بدونك.

للمنظمات الجادة في الحصول على هذا الصواب ، يوصي الخبراء بتطوير سياسات حوكمة واضحة للذكاء الاصطناعي توازن بين احتياجات الأعمال وتطلبات الأمان قبل أن يخرج استخدام الذكاء الاصطناعي المظلي تمامًا عن السيطرة.

جيريمي فينتورا هو Field CISO في شركة التكامل العالمية Myriad360 ، حيث يساعد المنظمات على التنقل في التحديات الأمنية المعقدة عبر السحابة و أمان API و التكنولوجيا الناشئة.