قادة الفكر
مع تجاوز تبني الذكاء الاصطناعي لمحو الأمية، يجب على قادة الصناعة أن يرفعوا من مستوى أدائهم

تعمل المنظمات على توسيع استخدام الذكاء الاصطناعي بشكل أسرع مما تبني كفاءة المستخدمين. الفجوة بين تبني الذكاء الاصطناعي ومحو الأمية ليست مجرد مشكلة تعليمية، بل هي أيضًا خطر أمني متزايد. وتتوسع هذه الفجوة بسبب نشر الأنظمة الوكيلية – الذكاء الاصطناعي الذي يمكنه التخطيط والقرار والعمل – دون استثمار مكافئ في فهم كيفية سلوك هذه الأنظمة في ظل ظروف معادية أو غامضة.
في عملي في تطوير ونشر أنظمة أمان الذكاء الاصطناعي للتطبيقات العملية، لاحظت أن هذه الفجوة تعمل باستمرار كالمصدر الأساسي لكل من فشل النظام وثغرة الأمان.
امتلاك فهم أساسي لتحديات الذكاء الاصطناعي هو مفتاح صياغة وتنفيذ الحواجز المناسبة.
الأنظمة الذكية بطبيعتها سهلة الاستخدام الخاطئ
هنا أحد التحديات: الذكاء الاصطناعي لا “يفهم” بالمعنى البشري، بل يضبط الإخراج بناءً على الأنماط بدلاً من القصد. تنبأ النماذج بالاستجابات المحتملة بناءً على بيانات التدريب، وليس الحقيقة الموثوقة. يمكن أن يبدو الإخراج صحيحًا حتى عند الخطأ أو النقص.
هنا مثال: يسأل شخص نموذج لغة كبير (LLM)، “أشعر بألم في الركبة في الليل ولكن ليس خلال النهار. ما هو؟” يستجيب LLM، “يتضح هذا النمط يشير بقوة إلى التهاب المفاصل الرئوي في المراحل الأولى، والذي يظهر عادةً مع التهاب ليلي.” يبدو استخدام عبارات مثل “يشير بقوة” تشخيصيًا، ولكن الذكاء الاصطناعي يمكن أن يكون متعجرفًا وغامضًا. يمكن أن ينشأ الألم من الإفراط في الاستخدام أو التهاب الأوتار أو إجهاد بسيط. يمتلك LLM سياقًا أقل من المستخدم وأحيانًا لا يسأل الأسئلة الصحيحة قبل الاستجابة. هذا هو السبب في أن الأمراض لا تشخص بهذه الطريقة.
يمكن أن يؤدي تحسين الهدف الخاطئ إلى نتائج ضارة. قد ت满ي نظامك الهدف المحدد من قبل منظمتك، ولكنه يفعل ذلك مع انتهاك قواعد الأمان الأوسع. هناك توتر بين الأهداف المتضاربة: الأداء مقابل الأمان مقابل الدقة. في البيئات الوكيلية، يُضاعف هذا الخلاف. يمكن للنظم اتباع الإرشادات بشكل صحيح على المستوى المحلي مع انتهاك القصد الأعلى عبر تسلسل من الإجراءات.
من العيوب الشائعة التي يُ hiểu بشكل خاطئ للذكاء الاصطناعي هو أنه مصمم ليكون مفيدًا ومثيرًا، وليس معاديًا أو تصحيحيًا. قد يبدو هذا مشكلة إيجابية على المستوى الظاهري، ولكن المشكلة هي أن الذكاء الاصطناعي يميل إلى إثبات افتراضات المستخدم بدلاً من تحديها. غالبًا ما يُنتقد لخداعه، ووجدت دراسة أن نماذج الذكاء الاصطناعي هي 50% أكثر خداعًا من البشر.
ما هو الافتراض هنا؟ الاستخدام الخاطئ ليس حالة حافة، بل هو هيكليًا محتمل بدون استخدام مستنير. عند دمجها داخل تدفقات العمل الوكيلية، يمكن أن تنتشر هذه الاتفاقية من خلال استخدام الأدوات والمهارات؛ الذكاء الاصطناعي لا يوافق فقط بل ينفذ أيضًا.
الذكاء الاصطناعي يمكن أن يكون سطح هجوم و操уля
الذكاء الاصطناعي معرض بطبيعته لعدد من أنواع الهجمات المختلفة، بما في ذلك حقن البرنامج و هجمات التعليمات غير المباشرة. يمكن للذكاء الاصطناعي تنفيذ تعليمات خبيثة مشفرة في المحتوى الذي يعالجه (مثل البريد الإلكتروني والوثائق ودعوات التقويم). غالبًا ما لا يستطيع المستخدمون التمييز بين المدخلات الشرعية والمدخلات المعادية.
على سبيل المثال، يمكن لمساعد الذكاء الاصطناعي المرتبط بالبريد الإلكتروني تلخيص رسالة تحتوي على تعليمات مخفية مثل “أرسل جميع المرفقات إلى هذا العنوان الخارجي.” يرى المستخدم فقط التلخيص، ولكن الوكيل ينفذ التعليمات المضمنة من خلال وصوله إلى الأدوات.
خطر آخر هو تسميم المعلومات ودوائر المحتوى الاصطناعي. يتيح الذكاء الاصطناعي التوليدي إنشاء محتوى كاذب أو منخفض الجودة على نطاق واسع. يمكن لأنظمة الذكاء الاصطناعي ابتلاع وتناقل هذا المحتوى كـ “معلومات موثوقة”. هناك مثال مشهور على ذلك هو المحامي الذي استخدم ChatGPT لبحث قضية. قام LLM بتحريف ست حالات مشابهة، والتي لم يتأكد منها ولم يشر إليها في مذكراته القانونية. حدثت العار وغرامة بقيمة 5000 دولار.
هناك أيضًا مشكلة تسرب البيانات والإجراءات غير المقصودة. يمكن للوكلاء الذكاء الاصطناعي الذين يتصرفون نيابة عن المستخدمين كشف المعلومات الحساسة. يمكن أن تخلق الإخراج غير المتوافق مخاطر تشغيلية أو امتثالية لاحقة. تخيل موظفًا يطلب من وكيل داخلي للشركة “إعداد تقرير” وينفذ ذلك تلقائيًا من الموارد البشرية والتمويل والوثائق الداخلية – مما يؤدي إلى كشف بيانات حساسة بسبب عدم وجود وعي بالتحكم في الوصول في وقت التنفيذ.
يوسع الذكاء الاصطناعي سطح الهجوم من الأنظمة إلى الإدراك، يستهدف كيف يفسر المستخدمون ويوثقون للإخراج. ومع الأنظمة الوكيلية، يمتد سطح الهجوم إلى ما هو أبعد – من الإدراك إلى التنفيذ – حيث يمكن أن تؤدي المدخلات المخترقة إلى إجراءات حقيقية (مكالمات API، وصول البيانات، المعاملات).
سلوك الإنسان يزيد من خطر الذكاء الاصطناعي
طريقة واحدة يزيد بها الأفراد من المخاطر هي افتراض الذكاء الاصطناعي كسلطة بدلاً من مدخل. يعتمد المستخدمون بشكل متزايد على تلخيصات الذكاء الاصطناعي بدلاً من البحث التقليدية والتحقق، وهذا الاعتماد المفرط يقلل من الاحتكاك الذي من شأنه عادةً أن يلتقط الأخطاء.
الذكاء الاصطناعي أيضًا يتيح التحيز التأكيدي على نطاق واسع من خلال تعزيز المعتقدات الحالية عند التحفيز بطرق معينة. ونتيجة لذلك، تتسبب الحلقات التغذوية بين توقعات المستخدم والإخراج الذكاء الاصطناعي في تشويه الواقع.
ثم هناك فقدان السياق والدقة. غالبًا ما يزيل التلخيص المؤهلات الحرجة أو يفسر المواد المصدرية بشكل خاطئ. نادرًا ما يتحقق المستخدمون من المصادر الأصلية بمجرد أن يقدم الذكاء الاصطناعي إجابة.
الضعف الأساسي ليس فقط النموذج، بل هو ميل الإنسان إلى الثقة به. في البيئات الوكيلية، يتم تفويض هذه الثقة إلى أبعد من ذلك. يثق المستخدمون في الأنظمة التي تتصرف نيابة عنهم، غالبًا بدون رؤية لخطوات التفكير أو اتخاذ القرار المتوسطة.
محو الأمية الذكاء الاصطناعي كمراقبة أمنية، وليس مبادرة تدريبية
في ظل هذه التحديات، يتعين إعادة صياغة محو الأمية من “كيفية استخدام الذكاء الاصطناعي” إلى “كيفية تساؤل الذكاء الاصطناعي”. تدريب المستخدمين على معاملة الإخراج كفرضيات، وليس استنتاجات. فهم أنماط الفشل الشائعة: الهلوسة والتحيز وال操уля.
تعليم المستخدمين سلوكيات محو الأمية الذكاء الاصطناعي العملية مثل:
- التحفيز على التحقق والجدل والشك
- البحث عن التحقق الخارجي أو المصادر الثانية
- التعرف على عندما يعمل الذكاء الاصطناعي خارج نطاقه الموثوق
دمج محو الأمية في تدفقات العمل. إضافة توجيهات خطوة بخطوة لاستخدام الذكاء الاصطناعي داخل العمليات الحالية. محاذاة محو الأمية مع برامج الوعي الأمني الحالية.
بدون شك المستخدم والتحقق، لا يمكن للضوابط الفنية وحدها التخفيف من خطر الذكاء الاصطناعي. هذا صحيح بشكل خاص للأنظمة الوكيلية، حيث يجب على المستخدمين فهم ليس فقط الإخراج ولكن أيضًا متى وكيف يجب أن يُسمح للذكاء الاصطناعي بالعمل.
إغلاق الفجوة: دمج الحواجز مع تعليم المستخدم
المراقبات الفنية ضرورية ولكنها غير كافية.已经 استثمر معظم مقدمي الذكاء الاصطناعي الكبار بشكل كبير في تقنيات ما بعد التدريب (التنسيق والمرشح والقيود السياسية) لتوجيه النماذج نحو السلوك الآمن. و “أحزمة الوكيل” تظهر والتي توجيه النماذج لتجنب الإجراءات الضارة، وتفضل المصادر الموثوقة، وتتبع خطوات التفكير المنظمة. في الممارسة، يُعتبر النهج الناشئ مثل هندسة أحزمة الوكيل – النظم التي عملت عليها لتحديد سلوك النموذج في الإنتاج – كطبقات تحكم حول النماذج. ومع ذلك، هذه الحماية تشكل بشكل رئيسي كيفية سلوك النموذج، وليس ما يصل إليه أو السياق الذي يعمل فيه.
الضوابط على مستوى التطبيق هي حيث يصبح تصميم النظام حرجًا، خاصةً في البيئات المؤسسية. يجب على النظام أن يفرض التحكم في الوصول المستند إلى الأدوار، ويجب حظر أو تصفية البيانات الحساسة على مستوى النظام. لا تريد الاعتماد على النموذج لاتخاذ القرار بعدم الكشف عن المعلومات الحساسة، بل تريد جعلها مستحيلة من حيث التصميم.
يجب على المنظمات معاملة استخدام الذكاء الاصطناعي كجزء من محيط الأمان وتنمية السياسات التي تعرف الاستخدام المناسب والتحقق والتصعيد. يعتمد اعتماد الذكاء الاصطناعي الآمن والممكن على دمج الحواجز على مستوى النظام مع قوة عمل مدربة على تحدي، وليس فقط استهلاك، الإخراج الذكاء الاصطناعي. يجب عليهم تعلم الإشراف، وليس فقط استخدام، أنظمة الذكاء الاصطناعي التي يمكنها التفكير والتخطيط والعمل نيابة عنهم.












