قاده التفكير
تحقيق التوازن: مناهج عالمية للتخفيف من المخاطر المرتبطة بالذكاء الاصطناعي

ليس سراً أن التقنيات الحديثة، على مدى السنوات القليلة الماضية، تجاوزت الحدود الأخلاقية في ظل أطر قانونية قائمة لم تُصمَّم لتلائمها، مما أدى إلى نشوء حقول ألغام قانونية وتنظيمية. وفي محاولةٍ لمكافحة آثار ذلك، اختارت الجهات التنظيمية اتباع أساليب مختلفة بين الدول والمناطق، مما زاد من حدة التوترات العالمية عند عدم التوصل إلى اتفاق.
وقد تم تسليط الضوء على هذه الاختلافات التنظيمية في قمة عمل الذكاء الاصطناعي التي عقدت مؤخرًا في باريس. البيان الختامي ركزت فعاليات هذا الحدث على مسائل الشمولية والانفتاح في تطوير الذكاء الاصطناعي. ومن المثير للاهتمام أنها لم تذكر سوى السلامة والثقة بشكل عام، دون التركيز على المخاطر المحددة المتعلقة بالذكاء الاصطناعي، مثل التهديدات الأمنية. وقد صاغت هذه الفعالية 60 دولة. المملكة المتحدة والولايات المتحدة وكانت هذه الأسماء غائبة بشكل واضح عن توقيعات البيان، وهو ما يظهر مدى قلة الإجماع في الوقت الراهن بين البلدان الرئيسية.
معالجة مخاطر الذكاء الاصطناعي عالميًا
يختلف تنظيم تطوير الذكاء الاصطناعي ونشره داخل كل دولة. ومع ذلك، يقع معظمها بين طرفي نقيض - موقف الولايات المتحدة والاتحاد الأوروبي.
الطريقة الأمريكية: الابتكار أولاً، ثم التنظيم
في الولايات المتحدة، لا توجد قوانين على المستوى الفيدرالي تُنظّم الذكاء الاصطناعي تحديدًا، بل يعتمد على حلول قائمة على السوق وإرشادات طوعية. ومع ذلك، هناك بعض التشريعات الرئيسية للذكاء الاصطناعي، بما في ذلك قانون المبادرة الوطنية للذكاء الاصطناعي، الذي يهدف إلى تنسيق أبحاث الذكاء الاصطناعي الفيدرالية، وقانون إعادة تفويض إدارة الطيران الفيدرالية، وإطار إدارة المخاطر الطوعية للمعهد الوطني للمعايير والتكنولوجيا (NIST).
لا يزال المشهد التنظيمي الأمريكي متقلبًا وعرضةً لتحولات سياسية كبيرة. على سبيل المثال، في أكتوبر 2023، أصدر الرئيس بايدن الأمر التنفيذي بشأن الذكاء الاصطناعي الآمن والمأمون والجدير بالثقةوضع معايير للبنية التحتية الحيوية، وتعزيز الأمن السيبراني المعتمد على الذكاء الاصطناعي، وتنظيم مشاريع الذكاء الاصطناعي الممولة اتحاديًا. ومع ذلك، في يناير 2025، أعلن الرئيس ترامب ألغى هذا الأمر التنفيذي، في التحول بعيدًا عن التنظيم ونحو إعطاء الأولوية للابتكار.
للنهج الأمريكي منتقدوه. فهم يلاحظون أن "طبيعة مجزأة"يؤدي إلى شبكة معقدة من القواعد التي"عدم وجود معايير قابلة للتنفيذ"، و ""ثغرات في حماية الخصوصية"ومع ذلك، فإن الموقف ككل في حالة تغير مستمر - ففي عام 2024، قدم المشرعون في الولاية ما يقرب من 700 قطعة من التشريعات الجديدة المتعلقة بالذكاء الاصطناعي وكان هناك جلسات استماع متعددة حول الذكاء الاصطناعي في الحوكمة، وكذلك الذكاء الاصطناعي والملكية الفكرية. مع أنه من الواضح أن حكومة الولايات المتحدة لا تتردد في التنظيم، إلا أنها تبحث بوضوح عن سبل لتطبيقه دون المساس بالابتكار.
طريقة الاتحاد الأوروبي: إعطاء الأولوية للوقاية
اختار الاتحاد الأوروبي نهجًا مختلفًا. في أغسطس/آب 2024، قدّم البرلمان والمجلس الأوروبيان قانون الذكاء الاصطناعي (قانون الذكاء الاصطناعي)يُعدّ هذا القانون، الذي يُعتبر على نطاق واسع الأكثر شمولاً في تنظيم الذكاء الاصطناعي حتى الآن، نهجاً قائماً على المخاطر، إذ يفرض قواعد صارمة على أنظمة الذكاء الاصطناعي عالية الحساسية، مثل تلك المستخدمة في الرعاية الصحية والبنية التحتية الحيوية. ولا تخضع التطبيقات منخفضة المخاطر إلا لرقابة محدودة، بينما يُحظر تماماً استخدام بعض التطبيقات، مثل أنظمة التقييم الاجتماعي الحكومية.
في الاتحاد الأوروبي، يُعدّ الامتثال إلزاميًا، ليس فقط داخل حدوده، بل أيضًا من قِبل أي مُزوّد أو موزع أو مستخدم لأنظمة الذكاء الاصطناعي العاملة في الاتحاد الأوروبي، أو التي تُقدّم حلولًا للذكاء الاصطناعي في سوقه - حتى لو طُوّر النظام خارجه. ومن المُرجّح أن يُشكّل هذا تحدياتٍ لمُزوّدي المنتجات المتكاملة في الولايات المتحدة وغيرها من الدول غير الأعضاء في الاتحاد الأوروبي في سعيهم للتكيّف.
تشمل الانتقادات الموجهة لنهج الاتحاد الأوروبي ما يزعمه الفشل في تحديد معيار الذهب من أجل حقوق الإنسان. التعقيد المفرط وقد لوحظ أيضًا نقص في الوضوح. ويشعر النقاد بالقلق إزاء الاتحاد الأوروبي متطلبات تقنية دقيقة للغايةلأنها تأتي في وقت يسعى فيه الاتحاد الأوروبي إلى تعزيز قدرته التنافسية.
إيجاد أرضية تنظيمية وسطى
في غضون ذلك، اعتمدت المملكة المتحدة إطارًا تنظيميًا "مرنًا" يقع في مكان ما بين الاتحاد الأوروبي والولايات المتحدة، ويستند إلى قيم أساسية كالسلامة والإنصاف والشفافية. وتتمتع الهيئات التنظيمية الحالية، مثل مكتب مفوض المعلومات، بصلاحية تطبيق هذه المبادئ ضمن نطاق اختصاصها.
نشرت حكومة المملكة المتحدة خطة عمل لفرص الذكاء الاصطناعي، تُحدد فيها تدابير الاستثمار في مؤسسات الذكاء الاصطناعي، وتطبيق تبني الذكاء الاصطناعي عبر الاقتصادات، وتشجيع أنظمة الذكاء الاصطناعي "المُطوّرة محليًا". في نوفمبر 2023، أسست المملكة المتحدة معهد سلامة الذكاء الاصطناعي (AISI)، وهو تطور من فريق عمل Frontier AI. تم إنشاء AISI لتقييم سلامة نماذج الذكاء الاصطناعي المتقدمة، بالتعاون مع كبار المطورين لتحقيق ذلك من خلال اختبارات السلامة.
ومع ذلك، فإن الانتقادات الموجهة إلى نهج المملكة المتحدة في تنظيم الذكاء الاصطناعي تشمل قدرات إنفاذ محدودة و عدم التنسيق بين التشريعات القطاعية. كما لاحظ النقاد غياب سلطة تنظيمية مركزية.
مثل المملكة المتحدة، وجدت دول كبرى أخرى مكانها في مكان ما بين الولايات المتحدة والاتحاد الأوروبي. على سبيل المثال، اعتمدت كندا نهجًا قائمًا على المخاطر من خلال قانون الذكاء الاصطناعي والبيانات المقترح (AIDA)، المصمم لتحقيق التوازن بين الابتكار والسلامة والاعتبارات الأخلاقية. وتبنت اليابان نهجًا "متمحورًا حول الإنسان" في مجال الذكاء الاصطناعي من خلال نشر إرشادات تعزز التطوير الموثوق. في الوقت نفسه، تخضع لوائح الذكاء الاصطناعي في الصين لرقابة صارمة من الدولة، حيث تُلزم القوانين الحديثة نماذج الذكاء الاصطناعي التوليدية بالخضوع لتقييمات أمنية والتوافق مع القيم الاشتراكية. وعلى غرار المملكة المتحدة، أصدرت أستراليا إطارًا لأخلاقيات الذكاء الاصطناعي، وتدرس تحديث قوانين الخصوصية لديها لمواجهة التحديات الناشئة التي يفرضها ابتكار الذكاء الاصطناعي.
كيف يتم إرساء التعاون الدولي؟
مع استمرار تطور تكنولوجيا الذكاء الاصطناعي، تتضح الاختلافات بين المناهج التنظيمية بشكل متزايد. فكل نهج فردي مُتبع فيما يتعلق بخصوصية البيانات وحماية حقوق النشر وجوانب أخرى، يُصعّب التوصل إلى إجماع عالمي متماسك حول المخاطر الرئيسية المتعلقة بالذكاء الاصطناعي. في ظل هذه الظروف، يُعدّ التعاون الدولي أمرًا بالغ الأهمية لوضع معايير أساسية تُعالج المخاطر الرئيسية دون عرقلة الابتكار.
قد يكمن حل التعاون الدولي في منظمات عالمية مثل منظمة التعاون الاقتصادي والتنمية (OECD) والأمم المتحدة، وغيرها، تعمل حاليًا على وضع معايير دولية وإرشادات أخلاقية للذكاء الاصطناعي. لن يكون الطريق إلى الأمام سهلًا، إذ يتطلب من جميع العاملين في هذا المجال إيجاد أرضية مشتركة. وإذا أخذنا في الاعتبار أن الابتكار يتقدم بسرعة البرق، فقد حان الوقت للنقاش والاتفاق.












