قادة الفكر
عندما يؤدي سوء استخدام الذكاء الاصطناعي إلى أزمة شركات

معظم الشركات تفتقر إلى السياسات لمنع الكوارث التى تضر بالسمعة من أدوات الذكاء الاصطناعي
أظهرت المسوح الأخيرة أن حوالي 30 في المائة فقط من الشركات قد أنشأت سياسات للذكاء الاصطناعي. وفي الوقت نفسه ، يشارك 77 في المائة من الموظفين أسرار الشركة على ChatGPT ، وفقًا لتقرير أمان البيانات والذكاء الاصطناعي للشركات الصادر عن LayerX. هذا المزيج يخلق ظروف مثالية للأزمات التى تضر بالسمعة.
تتمحور معظم سياسات الذكاء الاصطناعي الحالية على المخاطر الفنية والامتثال. وتتناول بروتوكولات أمان البيانات وتقييم البائعين والمتطلبات التنظيمية. ما غالبًا ما تفقده هذه السياسات هو كارثة علاقات عامة يمكن أن تنتشر في غضون ساعات بسبب سوء استخدام الذكاء الاصطناعي. في Red Banyan ، ننصح عددًا متزايدًا من المنظمات خلال أزمات متعلقة بالذكاء الاصطناعي ، ونبدأ في رؤية نمط شائع. عادة ما يتم احتواء خرق تقني بسرعة ، ولكن الأضرار التي تسببها لسمعة الشركة وعلاقات العملاء وثقة أصحاب المصلحة يمكن أن تستمر لشهر أو سنوات.
مشكلة الذكاء الاصطناعي المظلم
تأتي أكبر تهديد من ما يسميه محترفو الأمن “الذكاء الاصطناعي المظلم.” هذا هو حيث يستخدم الموظفون حسابات الذكاء الاصطناعي الشخصية غير المعتمدة لأداء المهام ، وتجاوز سيطرات الأمان الشركية. معظم الوقت ، يفعلون ذلك دون أن يدركوا تمامًا المخاطر.
وفقًا لبحث Cyberhaven ، 11 في المائة من البيانات التي يضعها الموظفون في ChatGPT هي معلومات سرية. يجب أن يثير هذا الرقم قلق كل مدير تقني ومدير اتصالات. نتحدث عن شفرة المصدر و عقود العملاء وخطط الطرق غير المنشورة والتنبؤات المالية وسجلات الموظفين التي تتدفق إلى الأنظمة التي لا تسيطر عليها المنظمات.
كيف تحدث تعرض البيانات
يمكن لمهندسي البرمجيات اللجوء إلى أدوات الذكاء الاصطناعي مثل Claude أو ChatGPT لتصحيح الأخطاء أو تحسين قطع من الشفرة. في عام 2023 ، فعل مهندسو البرمجيات في سامسونج ذلك – قاموا بتحميل شفرة المصدر الداخلية إلى ChatGPT أثناء محاولة تصحيح المشكلات. أجبر تسريب شفرة المصدر سامسونج على تنفيذ قيود شاملة على استخدام الذكاء الاصطناعي في جميع إدارات الهندسة.
غالبًا ما يستخدم المحترفون في التسويق وموظفي الموارد البشرية الذكاء الاصطناعي لتحسين كتابتهم. يرفعون مشاريع مقترحات ووثائق سياسات داخلية وأحيانًا حتى اتفاقيات العملاء ، ويطلبون من الذكاء الاصطناعي تحسين الوضوح أو исправة الأخطاء النحوية. تحتوي هذه الوثائق في كثير من الأحيان على توقعات مالية وterms قانونية أو خطط استراتيجية تجد منافسيها قيمة.
يمكن لفريق خدمة العملاء الذي يجرّب أدوات كفاءة الذكاء الاصطناعي إدخال محادثات العملاء الفعلية وتickets الدعم. يريدون من الذكاء الاصطناعي تلخيص التفاعلات أو اقتراح استجابات أفضل. عندما تتضمن هذه الإدخالات أسماء العملاء ومعلومات الاتصال و تفاصيل الحساب أو سجل الشراء ، قد انتهكت الشركة بذلك لوائح الخصوصية مثل GDPR أو CCPA.
قد يصف فريق تطوير المنتج يBrainstorm ميزات جديدة ChatGPT ، آملين في أن يساعد الذكاء الاصطناعي على تحسين أفكارهم أو تحديد مشاكل محتملة. يمكن أن تكشف هذه الوصفات عن مزايا تنافسية أو ابتكارات تكنولوجية أو استراتيجيات سوقية تهدف الشركة إلى الحفاظ عليها سرية حتى الإطلاق.
يمكن أن يتم الاحتفاظ بجميع هذه المعلومات بشكل محتمل بواسطة نماذج اللغة الكبيرة وت告ي استجابات الذكاء الاصطناعي لمستخدمين آخرين في المستقبل.
على سبيل المثال ، بعد أن وصف فريق تطوير المنتج منتجًا قادمًا إلى ChatGPT ، قد يسأل منافس أو صحفي أداة الذكاء الاصطناعي عن إصدارات الشركة القادمة. قد يُشير ChatGPT إلى المعلومات السرية التي تمت مشاركتها ويكشف عن منتج أو تكنولوجيا جديدة أنفقت الشركة موارد كبيرة على تطويرها.
كيف يصبح هذا أزمة علاقات عامة
عندما تظهر هذه الحوادث ، نادرًا ما تظل تحت السيطرة كقضايا تكنولوجية. هذا ما يحدث عادة:
يتم اكتشاف خرق البيانات ، غالبًا عن طريق الحادث أو من خلال تنبيه طرف ثالث. يبدأ فريق تكنولوجيا المعلومات في التحقيق أثناء محاولة تقييم النطاق. وفي الوقت نفسه ، إذا كان الحادث يتضمن بيانات العملاء أو معلومات خاضعة للتنظيم ، فإن التزامات قانونية تتطلب الإفصاح. بمجرد الإفصاح ، يبدأ تغطية الإعلام. يضخم الوسائط الاجتماعية القصة. يبدأ العملاء في الاتصال بالقلق. يقلق الموظفون بشأن أمن وظائفهم ومسؤولياتهم.
في غضون 24 إلى 48 ساعة ، ما بدأ كحادث تقني أصبح أزمة سمعة كاملة. تحتاج الشركة إلى شرح لمختلف الجماهير كيف حدث ذلك ، ولماذا فشلت السيطرات ، وما الذي يتم القيام به لمنع تكرار ذلك. إذا لم تستعد الشركة لهذا السيناريو ، فإن الاستجابة غالبًا ما تكون بطيئة أو غير متسقة أو دفاعية. كل خطوة خاطئة تمتد الأزمة وتعمق الأضرار.
بناء إطار استجابة للأزمات لحوادث الذكاء الاصطناعي
يجب على مديري تكنولوجيا المعلومات الشراكة مع فرق الاتصالات والقانون لإنشاء بروتوكولات استجابة للأزمات خصيصًا لحوادث الذكاء الاصطناعي. الأمور الفنية والسياسات مهمة ، ولكنها غير كافية بدون خطة لإدارة تداعيات الإعلام عند حدوث شيء خاطئ.
هذه هي الخطوات الستة القابلة للتنفيذ لبدء هذا العملية:
- إنشاء مسارات تصاعد واضحة. عند اكتشاف تعرض البيانات المرتبط بالذكاء الاصطناعي ، من الذي يتم إخطاره على الفور؟ يجب أن يتم إخطار تكنولوجيا المعلومات والقانون والاتصالات والقيادة العليا جميعًا بسرعة. قم بإنشاء شجرة قرار تحدد متى يتم تنشيط بروتوكولات الأزمة بناءً على نوع وحساسية البيانات المُفصلة.
- تطوير قوالب الاستجابة. قم بكتابة مسودات إعلانات الانتظار ووثائق الأسئلة والأجوبة لسيناريوهات سوء استخدام الذكاء الاصطناعي الشائعة. يجب أن تتناول هذه القوالب سوء استخدام الموظفين وقضايا أمان البائعين وتعرض البيانات العرضي. وجود قوالب جاهزة يسمح بالاستجابات أسرع وأكثر توافقًا عندما يكون الوقت حرجًا.
- تدريب المتحدثين. يحتاج التنفيذيون وموظفي الاتصالات إلى تدريب الإعلام يركز بشكل خاص على كيفية مناقشة حوادث الذكاء الاصطناعي. التكنولوجيا معقدة ومليئة بال жарجون ، مما قد يكون صعبًا في التنقل عند الإجابة على أسئلة أصحاب المصلحة.
- مراقبة العلامات التحذيرية المبكرة. يجب أن تتضمن مراقبة الوسائط الاجتماعية كلمات رئيسية تتعلق بمنظمتك وأدوات الذكاء الاصطناعي. أحيانًا ما يكون أول دليل على مشكلة ما هو موظف ينشر على LinkedIn أو عميل يشكو على تويتر على استجابة تم إنشاؤها بواسطة الذكاء الاصطناعي.
- إجراء محاكاة الأزمات. تمارين الطاولة التي تنتقل خلال سيناريو تعرض البيانات المرتبط بالذكاء الاصطناعي تساعد الفرق على فهم أدوارهم وتحديد الفجوات في خطة الاستجابة. يجب أن تشمل هذه التمارين تكنولوجيا المعلومات والقانون والاتصالات والموارد البشرية والقيادة التنفيذية.
- بناء العلاقات قبل أن تحتاج إليها. قم بإنشاء روابط مع شركات اتصالات الأزمات وخبراء أمان السيبرانية الذين يمكنهم تقديم التأكيد الثالث ، ومستشارين قانونيين ذوي خبرة في قضايا متعلقة بالذكاء الاصطناعي. عندما تطرأ أزمة ، تريد مستشارين موثوقين يمكنهم التحرك على الفور.
الطريق إلى الأمام
يستمر الفجوة بين تبني الذكاء الاصطناعي و حوكمة الذكاء الاصطناعي في النمو. للموظفين وصول سهل إلى أدوات قوية يمكن أن تخلق مخاطر سمعة كبيرة. كان مديرو تكنولوجيا المعلومات يركزون تقليديًا على الجانب التكنولوجي لإدارة المخاطر المرتبطة بالذكاء الاصطناعي. ومع ذلك ، فإن البعد السمعي للذكاء الاصطناعي يتطلب انتباهًا وتحضيرًا متساويًا.
الquestion ليست ما إذا كانت منظمتك ستواجه أزمة متعلقة بالذكاء الاصطناعي. بالنظر إلى معدلات التبني الحالية وانتشار الذكاء الاصطناعي المظلم ، فإن السؤال هو متى. الشركات التي تستعد الآن ، مع سياسات تتناول المخاطر الفنية والسمعة ، سوف تتعامل مع هذه الحوادث بشكل أفضل من تلك التي تُدركها غير المُحَضَّرة.












