قادة الفكر
فجوة الحوكمة: لماذا سيتأخر تنظيم الذكاء الاصطناعي دائمًا

يتطور الابتكار بسرعة الآلة، بينما تتحرك الحوكمة بسرعة الإنسان. مع نمو اعتماد الذكاء الاصطناعي بشكل كبير، ي tụن التنظيم، وهو ما يعتبر أمرًا عاديًا عندما يتعلق الأمر بالتكنولوجيا. في جميع أنحاء العالم، تحاول الحكومات والكيانات الأخرى تنظيم الذكاء الاصطناعي، ولكن هناك نهجًا متفرقًا وغامضًا.
جزء من التحدي هو أن هناك لا يوجد شيء مثل تصميم التكنولوجيا غير السياسي. هناك عدد من اللوائح والاقتراحات، من قانون الذكاء الاصطناعي في الاتحاد الأوروبي إلى بوكسات التنظيم في الولايات المتحدة، كل منها له فلسفته الخاصة. بينما حوكمة الذكاء الاصطناعي تتبع الابتكار بشكل طبيعي، التحدي الحقيقي هو إدارة الأمان والسياسة بشكل مسؤول داخل هذا التأخر.
طبيعة الفجوة: الابتكار أولاً، والرقابة لاحقًا
التأخر التنظيمي هو نتيجة حتمية للتقدم التكنولوجي. على سبيل المثال، لم يكن هنري فورد يطور طراز T مع التركيز الأساسي على سلامة الطرق ولوائح المرور. تتبع الأنماط التنظيمية تاريخيًا الابتكار؛ وتشمل الأمثلة الحديثة خصوصية البيانات والبلوك تشين والوسائط الاجتماعية. تطور الذكاء الاصطناعي بسرعة يتجاوز تشكيل السياسات وتنفيذها. وبعبارة أخرى، كان العربة قبل الحصان لفترة طويلة.
جزء من التحدي هو أن صانعي السياسات يتفاعلون غالبًا مع الضرر بدلاً من توقع المخاطر، مما يخلق دورات من الحوكمة التفاعلية. القضية ليست التأخر نفسه ولكن نقص الآليات التكيفية للحفاظ على اتصال مع نماذج التهديدات الناشئة، ونقص الإرادة للتنازل عن الحافة التنافسية من أجل السلامة. إنه سيناريو “سباق إلى الأسفل”؛ نحن نهدد سلامتنا الجماعية من أجل المكاسب التنافسية المحلية.
patchwork عالمي من حوكمة الذكاء الاصطناعي تمثل فلسفات متفرقة
النهج الرئيسية الحالية لحوكمة الذكاء الاصطناعي في العالم تختلف بشكل كبير.
في الاتحاد الأوروبي، قانون الذكاء الاصطناعي الذي تم تقديمه في العام الماضي هو في الأساس قائم على الأخلاقيات والمخاطر. يتم تقييم استخدام الذكاء الاصطناعي وفقًا لمستوى المخاطر، وبعضها يعتبر مخاطر غير مقبولة وبالتالي محظورة. في الولايات المتحدة، تم اتخاذ نهج أكثر من بوكسات التنظيم الذي يؤكد على مرونة الابتكار. قد يصف بعضها هذا النموذج على أنه استثناء للابتكار، بينما قد يسميه النقاد شيكًا فارغًا.
هناك أيضًا عملية هيروشيما، التي تحتوي على نوايا تنسيق عالمي ولكن اتباع محدود؛ كل دولة من دول مجموعة السبع ما زالت تركز على السيادة المحلية في مجال الذكاء الاصطناعي.
في الولايات المتحدة، تم ترك الأمر في الغالب للولايات، مما يضمن فعليًا عدم وجود تنظيم فعال. تفعل الحكومة الفيدرالية هذا أحيانًا بسبب عدم فعاليتها. تقوم الولايات بإنشاء بوكسات تنظيمية جديدة لجذب الشركات والاستثمارات، ولكن من غير المحتمل أن يكون هناك أي تنظيم ذو معنى على مستوى الولاية؛ الاستثناءات الممنوحة فقط.
المملكة المتحدة كانت في صراع داخلي ودولي لتأسيس نفسها كقوة مستقلة بشدة بعد بريكسيت. من خلال إلغاء التنظيم وخطط الحكومة “تسوية مستوى”، لا ي驚 أن يتم تقديم بوكسات تنظيمية. ستريد الحكومة البريطانية أن تكون المملكة المتحدة قوة عظمى في مجال الذكاء الاصطناعي من أجل الميزة السياسية والاستقرار الداخلي والخارجي.
الاتحاد الأوروبي يركز أكثر على سلامة المستهلك ولكن أيضًا على قوة السوق المشتركة. هذا يعتبر منطقيًا، بالنظر إلى تاريخ الاتحاد الأوروبي مع التنظيم المتشابك. الامتثال المشترك والقواعد والتجارة عبر الحدود هي مفتاح جعل الاتحاد الأوروبي ما هو عليه. لا يزالون يحتاجون إلى بوكسات تنظيمية، ولكن يجب على كل دولة عضو أن يكون لديها بوكس تنظيمي فعال في نفس التاريخ.
هذه هي بعض هذه اللوائح، ولكنها تعتبر الأبرز. النقطة الرئيسية هي أن هناك إطارات متفرقة تفتقر إلى تعريفات مشتركة وآليات تنفيذ وتنافس عبر الحدود. هذا يترك فجوات للمهاجمين للاستغلال.
الطبيعة السياسية للبروتوكولات
لا يمكن أن يكون هناك أي تنظيم للذكاء الاصطناعي حقًا محايدًا؛ كل اختيار تصميم وحدائق وتنظيم يعكس المصالح الحكومية أو الشركات الأساسية. أصبح تنظيم الذكاء الاصطناعي أداة جيوسياسية؛ تستخدم الدول ذلك لتأمين الميزة الاقتصادية أو الاستراتيجية. تحكمات تصدير الشبكات هي مثال حالي؛ تعمل كتنظيم غير مباشر للذكاء الاصطناعي.
التنظيم الوحيد الذي تم تقديمه بشكل فعال حتى الآن هو لتعطيل السوق عمدًا. سباق العالمي للسيادة على الذكاء الاصطناعي يحافظ على الحوكمة كآلية للتنافس بدلاً من السلامة التعاونية.
أمان بدون حدود، ولكن الحوكمة بها
المشكلة الرئيسية هنا هي أن التهديدات التي تمكّنها الذكاء الاصطناعي تتجاوز الحدود بينما يبقى التنظيم محصورًا. التهديدات السريعة التطور اليوم تشمل هجمات على أنظمة الذكاء الاصطناعي وهجمات تستخدم أنظمة الذكاء الاصطناعي. هذه التهديدات تتجاوز الاختصاصات، ولكن التنظيم يبقى معزولًا. يتم حجز الأمان في زاوية بينما تتجاوز التهديدات整个 إنترنت.
نحن نبدأ في رؤية إساءة استخدام أدوات الذكاء الاصطناعي الشرعية من قبل ممثلي التهديدات العالمية الذين يستغلون ضوابط السلامة الضعيفة. على سبيل المثال، تم رصد النشاط الخبيث مع استخدام أدوات إنشاء المواقع التي تشبه منشئات المواقع ويمكن استغلالها بسهولة لتشغيل البنية التخادعية. تم استخدام هذه الأدوات لتقليد صفحات تسجيل الدخول لخدمات وسائط اجتماعية شائعة ووكالات الشرطة الوطنية
حتى ت phảnع إطارات الحوكمة هيكلية الذكاء الاصطناعي غير الحدودية، سيبقى المدافعون مقيدون بالقوانين المتفرقة.
من التنظيم التفاعلي إلى الدفاع الاستباقي
التأخر التنظيمي هو حتمي، ولكن الركود ليس كذلك. نحن بحاجة إلى حوكمة تتنبأ وتنبؤية مع إطارات تطور مع التكنولوجيا؛ إنه أمر يتعلق بالانتقال من التنظيم التفاعلي إلى الدفاع الاستباقي. في المثالية، سيكون هذا مثل:
- تطوير معايير دولية مشتركة لتصنيف مخاطر الذكاء الاصطناعي.
- مشاركة أوسع في وضع المعايير بما يتجاوز الحكومات والشركات الكبيرة. حاولت حوكمة الإنترنت (بنجاح مختلط) استخدام نموذج متعدد الأطراف على نموذج متعدد الأطراف. على الرغم من أنه غير كامل، إلا أنه قد أثر بشكل كبير على جعل الإنترنت أداة للجميع وتقليل الرقابة والإغلاق السياسي.
- تعزيز تنوع الفكر في الحوكمة.
- آلية لتقارير الحوادث والشفافية. غياب اللوائح غالبًا ما يعني أيضًا عدم وجود متطلبات التقارير. من غير المحتمل أن يكون هناك متطلب لإنформاء الجمهور من الأضرار الناجمة عن الأخطاء أو اختيارات التصميم داخل بوكسات التنظيم في المستقبل القريب.
بينما لن تختفي فجوة الحوكمة أبدًا، يمكن أن تمنع الإطارات التعاونية والشفافة والشاملة أن تصبح فجوة دائمة في الأمان العالمي.












