قادة الفكر
ضربة التوازن: النهج العالمي للتخفيف من المخاطر المرتبطة بالذكاء الاصطناعي

لا يخفى على أحد أن التكنولوجيا الحديثة قد دفعَت بالحدود الأخلاقية خلال السنوات القليلة الماضية في الإطارات القانونية الحالية التي لم يتم تصميمها لتتناسب معها ، مما أدى إلى حقول ألغام قانونية وتنظيمية. لمحاولة مكافحة آثار ذلك ، يختار المنظمون المضي قدمًا بطرق مختلفة بين البلدان والمناطق ، مما يزيد من التوترات العالمية عندما لا يمكن العثور على اتفاق.
لقد تم التأكيد على هذه الاختلافات التنظيمية في قمة العمل الذكية الأخيرة في باريس. ركز البيان النهائي للحدث على مسائل الشمولية والانفتاح في تطوير الذكاء الاصطناعي. ومن المثير للاهتمام أنه ذكر فقط على نطاق واسع السلامة والموثوقية ، دون التأكيد على المخاطر المرتبطة بالذكاء الاصطناعي ، مثل التهديدات الأمنية. تم صياغة البيان من قبل 60 دولة ، وكان غياب المملكة المتحدة والولايات المتحدة عن التوقيع على البيان واضحًا ، مما يظهر مدى قلة الإجماع في الوقت الحالي عبر البلدان الرئيسية.
مكافحة مخاطر الذكاء الاصطناعي على الصعيد العالمي
يتم تنظيم تطوير الذكاء الاصطناعي وتحديد مواصفاته بشكل مختلف داخل كل دولة. ومع ذلك ، تتناسب معظمها بين النقطتين المتطرفتين – مواقف الولايات المتحدة والاتحاد الأوروبي.
طريقة الولايات المتحدة: الابتكار أولاً ثم التنظيم
في الولايات المتحدة ، لا توجد قوانين فيدرالية تحدد لوائح الذكاء الاصطناعي بشكل خاص ، بل تعتمد على حلول السوق والارشادات الطوعية. ومع ذلك ، هناك بعض القوانين الرئيسية للذكاء الاصطناعي ، بما في ذلك قانون المبادرة الوطنية للذكاء الاصطناعي ، الذي يهدف إلى تنسيق البحث الفيدرالي للذكاء الاصطناعي ، وقانون إعادة تفويض إدارة الطيران الفيدرالية ، وإطار إدارة المخاطر الطوعي لمعهد المعايير والتكنولوجيا الوطني (NIST).
يظل المنظور التنظيمي للولايات المتحدة سائلًا وخاضعًا للتغيرات السياسية الكبيرة. على سبيل المثال ، في أكتوبر 2023 ، أصدر الرئيس بايدن أمرًا تنفيذيًا بشأن تطوير واستخدام الذكاء الاصطناعي الآمن والموثوق ، الذي وضع معايير البنية التحتية الحيوية ، وتحسين الأمن السيبراني القائم على الذكاء الاصطناعي ، وتنظيم المشاريع التي تمولها الحكومة الفيدرالية للذكاء الاصطناعي. ومع ذلك ، في يناير 2025 ، ألغى الرئيس ترامب هذا الأمر التنفيذي ، في تحول بعيدًا عن التنظيم وتoward الأولوية للابتكار.
يُنتقد подход الولايات المتحدة. يلاحظون أن طبيعته “المتفرقة” تؤدي إلى شبكة معقدة من القواعد التي “تفتقر إلى معايير قابلة للتنفيذ” ، ولديها “فجوات في حماية الخصوصية”. ومع ذلك ، فإن الموقف ككل في حالة تقلب – في عام 2024 ، قدم مشرعو الدولة ما يقرب من 700 قطعة جديدة من تشريعات الذكاء الاصطناعي ، وهناك العديد من الجلسات حول الذكاء الاصطناعي في الحوكمة ، بالإضافة إلى الذكاء الاصطناعي والملكية الفكرية. على الرغم من أن من الواضح أن حكومة الولايات المتحدة لا تتردد في التنظيم ، إلا أنها تبحث بوضوح عن طرق لتنفيذه دون الحاجة إلى المساومة على الابتكار.
طريقة الاتحاد الأوروبي: الأولوية للوقاية
اختار الاتحاد الأوروبي نهجًا مختلفًا. في أغسطس 2024 ، قدم البرلمان الأوروبي والمجلس قانون الذكاء الاصطناعي (قانون الذكاء الاصطناعي) ، الذي يُعتبر على نطاق واسع أكثر لوائح الذكاء الاصطناعي شمولاً حتى الآن. من خلال استخدام نهج قائم على المخاطر ، يفرض القانون قواعد صارمة على أنظمة الذكاء الاصطناعي عالية الحساسية ، مثل تلك المستخدمة في الرعاية الصحية والبنية التحتية الحيوية. تواجه التطبيقات منخفضة المخاطر فقط إشرافًا ضعيفًا ، بينما يتم حظر بعض التطبيقات ، مثل أنظمة التقييم الاجتماعي التي تديرها الحكومة ، تمامًا.
في الاتحاد الأوروبي ، الإ遵اء إلزامي ليس فقط داخل حدوده ، ولكن أيضًا من قبل أي مورد أو موزع أو مستخدم لأنظمة الذكاء الاصطناعي التي تعمل في الاتحاد الأوروبي ، أو تقدم حلول الذكاء الاصطناعي لسوقه – حتى لو تم تطوير النظام خارج الاتحاد الأوروبي. ومن المحتمل أن يطرح ذلك تحديات للموردين الأمريكيين وغيرهم من الموردين غير الأوروبيين لمنتجات متكاملة أثناء العمل على التكيف.
تشمل الانتقادات لموقف الاتحاد الأوروبي ما يُزعم أنه فشله في وضع معيار ذهبي لحقوق الإنسان. لقد لوحظ أيضًا التعقيد الزائد ونقص الوضوح. ي担ق النقاد من متطلبات الاتحاد الأوروبي التقنية الدقيقة ، لأنها تأتي في وقت يبحث الاتحاد الأوروبي فيه عن تعزيز تنافسيته.
إيجاد الأرضية التنظيمية الوسطى
في غضون ذلك ، اعتمدت المملكة المتحدة إطارًا “خفيفًا” يقع بين الاتحاد الأوروبي والولايات المتحدة ، ويستند إلى قيم أساسية مثل السلامة والمنصفة والشفافية. يتمتع المنظمون الحاليون ، مثل مكتب مفوض المعلومات ، بالسلطة لتنفيذ هذه المبادئ داخل مجالاتهم الخاصة.
نشرت حكومة المملكة المتحدة خطة عمل الفرص للذكاء الاصطناعي ، التي تحدد الإجراءات للاستثمار في أسس الذكاء الاصطناعي وتنفيذ تبني الذكاء الاصطناعي عبر الاقتصاد وتعزيز “نظم الذكاء الاصطناعي المحلية”. في نوفمبر 2023 ، أسست المملكة المتحدة معهد سلامة الذكاء الاصطناعي (AISI) ، الذي تطور من فريق مهمة الذكاء الاصطناعي الحدودي. تم إنشاء AISI لتقييم سلامة نماذج الذكاء الاصطناعي المتقدمة ، بالتعاون مع المطورين الرئيسيين لتحقيق ذلك من خلال اختبارات السلامة.
然而 ، تشمل الانتقادات لموقف المملكة المتحدة بشأن لوائح الذكاء الاصطناعي القدرات التنظيمية المحدودة ونقص التنسيق بين التشريعات القطاعية. لاحظ النقاد أيضًا عدم وجود سلطة تنظيمية مركزية.
مثل المملكة المتحدة ، وجدت دول أخرى كبرى مكانها الخاص في مكان ما على طيف الولايات المتحدة والاتحاد الأوروبي. على سبيل المثال ، قدمت كندا نهجًا قائمًا على المخاطر مع قانون الذكاء الاصطناعي والبيانات المقترح (AIDA) ، الذي يهدف إلى تحقيق توازن بين الابتكار والسلامة والاعتبارات الأخلاقية. اعتمدت اليابان نهجًا “مركزًا على الإنسان” للذكاء الاصطناعي من خلال نشر إرشادات تepromو تطوير موثوق. في غضون ذلك ، يتم التحكم في لوائح الذكاء الاصطناعي في الصين بشكل صارم من قبل الدولة ، مع قوانين حديثة تتطلب من نماذج الذكاء الاصطناعي التوليدية الخضوع لتقييمات أمنية وتناسب القيم الاشتراكية. على غرار المملكة المتحدة ، أصدرت أستراليا إطارًا أخلاقيًا للذكاء الاصطناعي وتبحث في تحديث قوانين الخصوصية لتلبية التحديات الناشئة عن الابتكار في الذكاء الاصطناعي.
كيفية تحقيق التعاون الدولي؟
随着 استمرار تطور تكنولوجيا الذكاء الاصطناعي ، تصبح الاختلافات بين النهج التنظيمي أكثر وضوحًا. يجعل كل نهج فردي متعلق بالخصوصية وحماية حقوق التأليف والنشر وغيرها من الجوانب من الصعب أكثر تحقيق إجماع عالمي متسق بشأن المخاطر الرئيسية المرتبطة بالذكاء الاصطناعي. في هذه الظروف ، التعاون الدولي ضروري لتحقيق معايير أساسية تتمثل في معالجة المخاطر الرئيسية دون تقييد الابتكار.
يمكن أن تكمن الإجابة عن التعاون الدولي مع المنظمات العالمية مثل منظمة التعاون الاقتصادي والتنمية (OECD) والأمم المتحدة وعدة منظمات أخرى ، التي تعمل حاليًا على وضع معايير دولية وإرشادات أخلاقية للذكاء الاصطناعي. لن يكون الطريق الأمامي سهلًا لأنه يتطلب من الجميع في الصناعة العثور على أرضية مشتركة. إذا اعتبرنا أن الابتكار يتحرك بسرعة خيالية – فإن الوقت لمناقشة الاتفاق الآن.












