رطم توظيف الذكاء الاصطناعي التوليدي: الكشف عن آثار الأمن السيبراني لأدوات الذكاء الاصطناعي التوليدي - Unite.AI
اتصل بنا للحصول على مزيد من المعلومات

قاده التفكير

توظيف الذكاء الاصطناعي التوليدي: الكشف عن آثار الأمن السيبراني لأدوات الذكاء الاصطناعي التوليدي

mm

تم النشر

 on

من العدل أن نقول إن الذكاء الاصطناعي التوليدي قد لفت الآن انتباه كل مجلس إدارة ورائد أعمال في البلاد. بعد أن كانت تقنية هامشية كان من الصعب استخدامها، ناهيك عن إتقانها، أصبحت أبواب الذكاء الاصطناعي التوليدي مفتوحة الآن على مصراعيها بفضل تطبيقات مثل ChatGPT أو DALL-E. نحن نشهد الآن احتضانًا شاملاً للذكاء الاصطناعي التوليدي في جميع الصناعات والفئات العمرية حيث يكتشف الموظفون طرقًا للاستفادة من التكنولوجيا لصالحهم.

A الأخيرة مسح أشار إلى أن 29% من الجيل Z، و28% من الجيل X، و27% من المشاركين في جيل الألفية يستخدمون الآن أدوات الذكاء الاصطناعي التوليدية كجزء من عملهم اليومي. وفي عام 2022، بلغ معدل تبني الذكاء الاصطناعي على نطاق واسع 23%، ومن المتوقع أن يتضاعف هذا الرقم إلى 46% بحلول عام 2025.

الذكاء الاصطناعي التوليدي هو تقنية ناشئة ولكنها سريعة التطور تعمل على الاستفادة من النماذج المدربة لإنشاء محتوى أصلي بأشكال مختلفة، بدءًا من النصوص والصور المكتوبة وحتى مقاطع الفيديو والموسيقى وحتى أكواد البرامج. باستخدام نماذج اللغة الكبيرة (LLMs) ومجموعات البيانات الهائلة، يمكن للتكنولوجيا إنشاء محتوى فريد على الفور لا يمكن تمييزه تقريبًا عن العمل البشري، وفي كثير من الحالات أكثر دقة وإقناعًا.

ومع ذلك، في حين أن الشركات تستخدم بشكل متزايد الذكاء الاصطناعي التوليدي لدعم عملياتها اليومية، وكان الموظفون سريعين في الاستيعاب، فإن وتيرة الاعتماد ونقص التنظيم أثارت مخاوف كبيرة تتعلق بالأمن السيبراني والامتثال التنظيمي.

وفقا لأحد مسح من بين عامة السكان، يشعر أكثر من 80% من الأشخاص بالقلق إزاء المخاطر الأمنية التي يشكلها ChatGPT والذكاء الاصطناعي التوليدي، ويريد 52% ممن شملهم الاستطلاع إيقاف تطوير الذكاء الاصطناعي التوليدي مؤقتًا حتى تتمكن اللوائح من اللحاق بالركب. وقد رددت الشركات نفسها هذا الشعور الأوسع أيضًا 65٪ من كبار قادة تكنولوجيا المعلومات عدم الرغبة في التغاضي عن الوصول السلس إلى أدوات الذكاء الاصطناعي التوليدية بسبب المخاوف الأمنية.

الذكاء الاصطناعي التوليدي لا يزال مجهولاً

تتغذى أدوات الذكاء الاصطناعي التوليدية على البيانات. يتم تدريب النماذج، مثل تلك المستخدمة من قبل ChatGPT وDALL-E، على البيانات الخارجية أو المتاحة مجانًا على الإنترنت، ولكن من أجل تحقيق أقصى استفادة من هذه الأدوات، يحتاج المستخدمون إلى مشاركة بيانات محددة للغاية. في كثير من الأحيان، عند المطالبة بأدوات مثل ChatGPT، سيشارك المستخدمون معلومات العمل الحساسة من أجل الحصول على نتائج دقيقة ومتكاملة. وهذا يخلق الكثير من الأشياء المجهولة للشركات. إن خطر الوصول غير المصرح به أو الكشف غير المقصود عن المعلومات الحساسة يكون "مضمنًا" عندما يتعلق الأمر باستخدام أدوات الذكاء الاصطناعي العامة المتاحة مجانًا.

وهذا الخطر في حد ذاته ليس بالضرورة أمرا سيئا. والمشكلة هي أن هذه المخاطر لم يتم استكشافها بشكل صحيح بعد. حتى الآن، لم يكن هناك تحليل حقيقي لتأثير الأعمال لاستخدام أدوات الذكاء الاصطناعي التوليدية المتاحة على نطاق واسع، كما أن الأطر القانونية والتنظيمية العالمية حول الاستخدام التوليدي للذكاء الاصطناعي لم تصل بعد إلى أي شكل من أشكال النضج.

التنظيم لا يزال قيد التقدم

ويقوم المنظمون بالفعل بتقييم أدوات الذكاء الاصطناعي التوليدية من حيث الخصوصية، وأمن البيانات، وسلامة البيانات التي تنتجها. ومع ذلك، كما هو الحال في كثير من الأحيان مع التكنولوجيا الناشئة، فإن الجهاز التنظيمي لدعم ومراقبة استخدامها يتخلف عدة خطوات عن الركب. في حين يتم استخدام التكنولوجيا من قبل الشركات والموظفين على نطاق واسع، فإن الأطر التنظيمية لا تزال قيد التخطيط إلى حد كبير.

وهذا يخلق خطرًا واضحًا وحاضرًا على الشركات التي لا يتم أخذها على محمل الجد في الوقت الحالي كما ينبغي. يهتم المسؤولون التنفيذيون بطبيعة الحال بكيفية تقديم هذه المنصات لمكاسب تجارية مادية مثل فرص الأتمتة والنمو، لكن مديري المخاطر يتساءلون عن كيفية تنظيم هذه التكنولوجيا، وما هي الآثار القانونية التي قد تكون في نهاية المطاف، وكيف يمكن أن تتعرض بيانات الشركة للخطر أو الكشف عنها . العديد من هذه الأدوات متاحة مجانًا لأي مستخدم لديه متصفح واتصال بالإنترنت، لذلك أثناء انتظار التنظيم، تحتاج الشركات إلى البدء في التفكير بعناية شديدة حول "القواعد الداخلية" الخاصة بها حول الاستخدام التوليدي للذكاء الاصطناعي.

دور CISOs في إدارة الذكاء الاصطناعي التوليدي

مع استمرار الافتقار إلى الأطر التنظيمية، يجب على كبار مسؤولي أمن المعلومات (CISOs) تكثيف جهودهم ولعب دور حاسم في إدارة استخدام الذكاء الاصطناعي التوليدي داخل مؤسساتهم. إنهم بحاجة إلى فهم من يستخدم التكنولوجيا ولأي غرض، وكيفية حماية معلومات المؤسسة عندما يتفاعل الموظفون مع أدوات الذكاء الاصطناعي التوليدية، وكيفية إدارة المخاطر الأمنية للتكنولوجيا الأساسية، وكيفية تحقيق التوازن بين المبادلات الأمنية وقيمة عروض التكنولوجيا.

هذا المتحان ليس سهل. وينبغي إجراء تقييمات تفصيلية للمخاطر لتحديد النتائج السلبية والإيجابية نتيجة أولاً، نشر التكنولوجيا بصفة رسمية، وثانياً، السماح للموظفين باستخدام الأدوات المتاحة بحرية دون رقابة. ونظرًا لطبيعة سهولة الوصول إلى تطبيقات الذكاء الاصطناعي التوليدية، سيحتاج مدراء تكنولوجيا المعلومات إلى التفكير بعناية في سياسة الشركة المحيطة باستخدامها. هل يجب أن يتمتع الموظفون بحرية الاستفادة من أدوات مثل ChatGPT أو DALL-E لتسهيل عملهم؟ أم هل ينبغي تقييد الوصول إلى هذه الأدوات أو الإشراف عليه بطريقة ما، مع إرشادات وأطر داخلية حول كيفية استخدامها؟ إحدى المشاكل الواضحة هي أنه حتى لو تم وضع مبادئ توجيهية للاستخدام الداخلي، نظرا للوتيرة التي تتطور بها التكنولوجيا، فإنها قد تصبح قديمة بحلول الوقت الذي يتم الانتهاء منها.

قد تكون إحدى طرق معالجة هذه المشكلة في الواقع هي نقل التركيز بعيدًا عن أدوات الذكاء الاصطناعي التوليدية نفسها، والتركيز بدلاً من ذلك على تصنيف البيانات وحمايتها. لقد كان تصنيف البيانات دائمًا جانبًا رئيسيًا لحماية البيانات من الاختراق أو التسريب، وينطبق هذا أيضًا على حالة الاستخدام المحددة هذه. ويتضمن تعيين مستوى من الحساسية للبيانات، والذي يحدد كيفية التعامل معها. هل يجب أن تكون مشفرة؟ هل يجب أن يتم حظره ليتم احتواؤه؟ هل يجب إخطاره؟ من يجب أن يكون لديه حق الوصول إليها، وأين يُسمح بمشاركتها؟ ومن خلال التركيز على تدفق البيانات، بدلاً من الأداة نفسها، سيكون لدى كبار مسؤولي أمن المعلومات ومسؤولي الأمن فرصة أكبر بكثير للتخفيف من بعض المخاطر المذكورة.

مثل جميع التقنيات الناشئة، يعد الذكاء الاصطناعي التوليدي نعمة وخطرًا على الشركات. وفي حين أنها توفر إمكانات جديدة مثيرة مثل الأتمتة والتصور الإبداعي، فإنها تقدم أيضًا بعض التحديات المعقدة حول أمن البيانات وحماية الملكية الفكرية. وفي حين لا تزال الأطر التنظيمية والقانونية قيد النقاش، يجب على الشركات أن تأخذ على عاتقها السير على الخط الفاصل بين الفرصة والمخاطر، وتنفيذ ضوابط السياسات الخاصة بها التي تعكس موقفها الأمني ​​العام. سوف يؤدي الذكاء الاصطناعي التوليدي إلى دفع الأعمال إلى الأمام، ولكن يجب أن نكون حريصين على إبقاء يد واحدة على عجلة القيادة.

يتمتع كريس هيتنر بخبرة تزيد عن 25 عامًا كخبير في الأمن السيبراني، وهو معروف برفع المخاطر السيبرانية إلى مستوى المديرين التنفيذيين ومجلس الإدارة لحماية الصناعات والبنى التحتية والاقتصادات في جميع أنحاء العالم.

شغل منصب كبير مستشاري الأمن السيبراني لرئيس لجنة الأوراق المالية والبورصات الأمريكية ورئيسًا للأمن السيبراني لمكتب عمليات فحص وفحص الامتثال في هيئة الأوراق المالية والبورصات.

يشغل كريس حاليًا منصب رئيس المجلس الاستشاري لأمن العملاء في Panzura، والذي يوفر التعليم والوعي حول مرونة البيانات من خلال مهمة تطوير المواءمة التجارية والتشغيلية والمالية لإدارة مخاطر الأمن السيبراني. Panzura هي شركة رائدة في مجال إدارة البيانات الهجينة متعددة السحابة.

بالإضافة إلى ذلك، فهو مستشار خاص للمخاطر السيبرانية للرابطة الوطنية لمديري الشركات، ورئيس الأمن السيبراني والخصوصية في Nasdaq Insight Council، وعضو مجلس الإدارة في TCIG.