Connect with us

قادة الفكر

لماذا يحمل حظر الذكاء الاصطناعي مخاطر أمنية وكيف يجب على المؤسسات الاستجابة

mm

في جميع أنحاء الولايات المتحدة، تتحرك المناطق التعليمية والمنظمات في القطاع العام لتقيد أو حظر الوصول إلى تقنيات الذكاء الاصطناعي التوليدي (GenAI) أو أدوات معينة. في كولورادو، حظرت منطقة مدرسة بوالدر فالي مؤخرًا ChatGPT على شبكات المنطقة، مستشهدة بمخاوف بشأن الإساءة، السلامة، والسلامة الأكاديمية.

الانطباع عن تقليص التعرض لحوادث أمنية أو إساءة استخدام البيانات هو أمر مفهوم. المنصات التي تفتقر إلى حواجز أمنية ضعيفة أو التزامات خصوصية غير واضحة، مثل DeepSeek، تبرر تقييدًا ومراقبة. لكن حظر الوصول إلى أدوات GenAI لا يقلل من المخاطر بشكل فعلي؛ غالبًا ما يتحول فقط إلى بيئات حيث تختفي الإشراف.

وجدت دراسة لمجلس الكلية أن 84٪ من طلاب المدارس الثانوية أبلغوا عن استخدام GenAI لأعمال المدرسة، حتى مع أن 45٪ من المديرين أبلغوا عن بعض القيود على الوصول إلى الذكاء الاصطناعي في المدرسة. وبالمثل، وجدت تقرير من IBM أن 80٪ من موظفي المكتب يستخدمون الذكاء الاصطناعي، ولكن فقط 22٪ يعتمدون حصريًا على أدوات موفرة من قبل صاحب العمل.

سياسات الوصول وحدها لا تحدد السلوك. يمكن للطلاب سحب هواتفهم واستخدام أي أداة ذكاء اصطناعي عبر شبكة البيانات الخلوي، أو استخدام المنصة أثناء وجودهم في المنزل أو على واي فاي عام. يمكنهم أيضًا استخدام VPNs وطاولات سطح المكتب البعيدة والإضافات لتجاوز القيود. يمكن لموظفي المكتب القيام بذلك أيضًا لتجاوز التحكم في مكان العمل.

يجب على المنظمات افتراض أن هناك إرادة لاستخدام الذكاء الاصطناعي، وهناك طريقة. عندما تقيد التكنولوجيا بطريقة تدفع الاستخدام إلى ما وراء الرؤية المؤسسية، تتصاعد مخاطر الذكاء الاصطناعي المظلم. لا يوجد إشراف في ما يُدخل إلى التحفيزات أو ما البيانات التي يتم الاحتفاظ بها بواسطة النموذج. يتم إلغاء أي سيطرة على الأمان على الفور.

إلى جانب خطر الذكاء الاصطناعي المظلم، تخلق الحظر فجوة في المعرفة، تترك الطلاب غير مستعدين تمامًا لاستخدام التكنولوجيا التي ستكون جزءًا كبيرًا من مستقبلهم. هذه الأدوات متضمنة بشكل متزايد في محركات البحث ومنصات الأعمال وحزمة الإنتاجية والأجهزة الشخصية. وجدت دراسة استطلاع من Pew Research أن 62٪ من البالغين في الولايات المتحدة يقولون إنهم يتفاعلون مع الذكاء الاصطناعي على الأقل عدة مرات في الأسبوع. من المؤكد تقريبًا أن الطلاب والموظفين سوف يواجهون أنظمة GenAI بغض النظر عن سياسات المؤسسة.

في هذا البيئة، التعليم هو الحاجز الأكثر موثوقية ضد المخاوف بشأن الإساءة أو الأمان، وضمان أن الطلاب والموظفين على حد سواء مستعدون جيدًا لاستخدام أداة ستكون جزءًا لا يتجزأ من مسيرتهم المهنية. تعليم الاستخدام المسؤول والأخلاقي يجهز المستخدمين للتعرف على مخاطر البيانات واتخاذ قرارات مستنيرة في أي مكان يجدون هذه الأنظمة.

يجب أن تركز برامج التعليم على كيفية معالجة نماذج اللغة الكبيرة (LLMs) للبيانات وكيفية الاحتفاظ بها، وكيفية تحديد الهلوسة، وكيفية التحقق من مخرجات الذكاء الاصطناعي التي تم إنشاؤها، وكيفية تحديد حملات التصيد الاحتيالي والصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي، على سبيل المثال لا الحصر. تعليم المستخدمين لتكون متشككة. غالبًا ما يتم تقديم مخرجات الذكاء الاصطناعي بثقة وبلغة منمقة، مما يمكن أن يخلق وهمًا في السلطة. بدون تدريب، قد يفترض المستخدمون أن الجواب المنسق جيدًا هو دقيق بشكل固有.

القدرة على تساؤل المحتوى الرقمي هي خط الدفاع الأمامي مع تصاعد عمليات التصيد الاحتيالي التي تعززها الذكاء الاصطناعي وتحسينها. وجدت دراسة استطلاع من Gartner أن 62٪ من المنظمات تعرضت لهجوم على الذكاء الاصطناعي المزور في العام الماضي، و 32٪ واجهت هجومًا على تطبيقات الذكاء الاصطناعي. من المتوقع أن تظل وتيرة ومدى هذه الحوادث في الارتفاع.

المنظمات في القطاع العام، مثل المدارس والحكومات المحلية، معرضة بشكل خاص للهندسة الاجتماعية التي تمكّنها الذكاء الاصطناعي المزور لأن الكثير من أنشطتها يتم تسجيلها وإتاحتها للجمهور. يمكن تحويل مقاطع صوتية من الاجتماعات العامة واستخدامها لإنشاء مكالمات صوتية مقنعة. لقد رأينا ممثلي التهديدات يستخدمون هذا للاحتيال، مثل إعادة توجيه الأموال خلال معاملات حساسة. بينما يحدث هذا غالبًا في الحالات المستهدفة، المستخدمون الذين لم يتم تدريبهم على التعرف على هذه التقنيات، أو حتى يعرفون أنها ممكنة، هم في وضع غير ممتاز من البداية.

بعد التعليم، يجب على المنظمات أن يكون لديها سياسات واضحة وموحدة بشأن استخدام الذكاء الاصطناعي والحوكمة. يجب أن تحدد هذه السياسات الأدوات المعتمدة، وحالات الاستخدام المقبولة، وما البيانات التي يمكن إدخالها في أي نموذج. يجب تطبيق السياسات بشكل متسق عبر الإدارات بدلاً من التباين من فصل دراسي إلى آخر أو من مكتب إلى آخر. التوقعات الواضحة تقلل من الغموض وتعزز المساءلة.

بدلاً من القيود الشاملة، يجب على المنظمات النظر في تشكيل كيفية استخدام التكنولوجيا في الممارسة. عندما تؤيد المنظمة أداة يمكن الوصول إليها وأمنها وجيدة، تصبح الافتراضية لمعظم المستخدمين. انخفاض استخدام الذكاء الاصطناعي المظلم بشكل عشوائي لأن هناك بديلًا прямًا لا يتضمن تحميل VPN لاستخدامه.

المنظمات والمؤسسات تبحث عن توفير وصول آمن إلى LLMs بطريقة تتم فيها حماية بياناتها وعدم مشاركتها أو استخدامها للتدريب. تظهر فئة متزايدة من أدوات تمكين الذكاء الاصطناعي والأمان لتحقيق ذلك بالضبط. يمكنهم توفير الوصول إلى عدة LLMs مع الحفاظ على بيانات المؤسسة بشكل آمن ومحكم. توفر اتفاقيات عدم الاحتفاظ بالبيانات الإطار القانوني لضمان أن بيانات المنظمة تظل ملكية للشركة أو المؤسسة، ويمكن أن يكون LLM غير مدرب عليها. بالإضافة إلى ذلك، إذا غادر موظف المؤسسة، تظل أي استخدام للذكاء الاصطناعي، والتدفقات العمال، والبيانات ملكية للمؤسسة.

يمكن تطبيق الحواجز الفنية على مستوى الميزة. قد تسمح المؤسسة للطلاب أو الموظفين بطرح أسئلة عامة داخل LLM معطى مع تعطيل تحميل الملفات، أو مشاركة الوثائق، أو القدرات عالية المخاطر الأخرى. هذه التكوين يحافظ على فوائد الإنتاجية دون فتح الباب أمام التعرض غير الخاضع للرقابة للبيانات.

يمكن لأدوات أكثر تقدمًا أن تقوم تلقائيًا بإزالة المعلومات الحساسة قبل أن تصل إلى النموذج. على سبيل المثال، استبدال أسماء المرضى أو المعرفات بمحاذير محايدة حتى يتمكن الأطباء والممرضات من استخدام GenAI دون تعرض البيانات المحمية.

تخلق السياسات الواضحة مع الحواجز الفنية، مبنية على أساس من التعليم، أفضل دفاع، خاصة مع تغير التكنولوجيا بسرعة. الذكاء الاصطناعي التوليدي يتطور بشكل أسرع من معظم المنظمات في القطاع العام – وميزانياتها – يمكنها التكيف. محاولة حظر كل نموذج جديد يظهر غير مستدامة لأنها بحلول الوقت الذي يتم فيه تقييد منصة، يكون قد اكتسبت منصة أخرى زخمًا. المستخدمون المدربون على فهم المخاطر الكامنة يمكنهم التكيف عبر الأدوات والإصدارات.

الأمان في بيئة تمكّنها الذكاء الاصطناعي يعتمد على الاعتراف بالحقيقة أن GenAI теперь متأصل في الحياة اليومية. لا يوجد إمكانية لإعادة وضع الجني في الزجاجة. الحظر الشامل قد يُظهر الحذر، ولكن غالبًا ما يتبادل المخاطر المرئية والقابلة للإدارة بالمخاطر غير المرئية وغير الخاضعة للإدارة. تعليم شخص لاستخدام الذكاء الاصطناعي بشكل مسؤول، وسيكون مستعدًا لما يأتي بعد ذلك.

كريستوفر مورتن يخدم كأعلى مسؤول معلومات في Logically’s، حيث يقود فرق عمليات تكنولوجيا المعلومات، وتطوير المنتجات الفنية، ومركز عمليات الشبكة وخدمات السحابة. انضم إلى فريق Logically من خلال استحواذ شركة دعم الشبكة في عام 2021 حيث كان قد شغل منصب رئيس التكنولوجيا. مورتن بدأ مسيرته المهنية مع شركة دعم الشبكة في عام 2005 وكان له دور فعال في إطلاق وإدارة وتطوير عروض الخدمات المدارة.