اتصل بنا للحصول على مزيد من المعلومات

من المقرر أن يؤثر قانون السلوك الجديد للذكاء الاصطناعي في الاتحاد الأوروبي على التنظيم

اللائحة

من المقرر أن يؤثر قانون السلوك الجديد للذكاء الاصطناعي في الاتحاد الأوروبي على التنظيم

mm

قدمت المفوضية الأوروبية مؤخرًا القواعد السلوكيّة وهذا من شأنه أن يغير طريقة عمل شركات الذكاء الاصطناعي. إنه ليس مجرد مجموعة أخرى من المبادئ التوجيهية بل إصلاح شامل للإشراف على الذكاء الاصطناعي لا يمكن حتى لأكبر اللاعبين تجاهله. 

ولكن ما الذي يجعل هذا مختلفا؟ للمرة الأولى، نرى قواعد ملموسة قد تجبر شركات مثل OpenAI وGoogle على فتح نماذجها للاختبار الخارجي، وهو تحول أساسي في كيفية تطوير أنظمة الذكاء الاصطناعي ونشرها في أوروبا.

اللاعبون الجدد في مجال الإشراف على الذكاء الاصطناعي

لقد أنشأت المفوضية الأوروبية إطار عمل يستهدف على وجه التحديد ما تسميه أنظمة الذكاء الاصطناعي التي تنطوي على "مخاطر نظامية". نحن نتحدث عن نماذج تم تدريبها بأكثر من 10 ^ 25 FLOPs من القوة الحسابية - وهي العتبة التي تجاوزها GPT-4 بالفعل.

سيتعين على الشركات الإبلاغ عن خطط تدريب الذكاء الاصطناعي الخاصة بها قبل أسبوعين من البدء في تنفيذها. 

ويتمثل جوهر هذا النظام الجديد في وثيقتين رئيسيتين: إطار السلامة والأمن وتقرير السلامة والأمن. ويمثل إطار السلامة والأمن خريطة طريق شاملة لإدارة مخاطر الذكاء الاصطناعي، حيث يغطي كل شيء من تحديد المخاطر الأولية إلى تدابير الأمن المستمرة. وفي الوقت نفسه، يعمل تقرير السلامة والأمن كأداة توثيق مفصلة لكل نموذج فردي.

الاختبار الخارجي لنماذج الذكاء الاصطناعي عالية المخاطر

تطالب المفوضية بإجراء اختبارات خارجية لنماذج الذكاء الاصطناعي عالية المخاطر. هذا ليس فحص جودة داخليًا اعتياديًا، إذ يتولى خبراء مستقلون ومكتب الذكاء الاصطناعي التابع للاتحاد الأوروبي فحص هذه الأنظمة.

التداعيات كبيرة. إذا كنتَ من OpenAI أو Google، فستحتاج فجأةً إلى السماح لخبراء خارجيين بفحص أنظمتك. تنصّ المسودة صراحةً على أنه يجب على الشركات "ضمان إجراء اختبارات كافية من قِبل خبراء مستقلين قبل النشر". وهذا تحوّل كبير عن نهج التنظيم الذاتي الحالي.

السؤال المطروح: من المؤهل لاختبار هذه الأنظمة بالغة التعقيد؟ يخطو مكتب الذكاء الاصطناعي التابع للاتحاد الأوروبي خطوةً غير مسبوقة. سيحتاجون إلى خبراء قادرين على فهم وتقييم تقنيات الذكاء الاصطناعي الجديدة مع الحفاظ على سرية تامة لما يكتشفونه.

قد يُصبح هذا الشرط المتعلق بالاختبار الخارجي إلزاميًا في جميع أنحاء الاتحاد الأوروبي من خلال قانون تنفيذي صادر عن المفوضية. ويمكن للشركات محاولة إثبات امتثالها من خلال "وسائل بديلة مناسبة"، ولكن لا أحد يعلم تمامًا معنى ذلك عمليًا.

حماية حقوق النشر تصبح أكثر جدية

كما يتعامل الاتحاد الأوروبي بجدية مع حقوق الطبع والنشر. فهو يفرض على مزودي الذكاء الاصطناعي وضع سياسات واضحة حول كيفية التعامل مع الملكية الفكرية.

تدعم المفوضية معيار robots.txt، وهو ملف بسيط يُخبر برامج الزحف بالمواقع المسموح لها بالوصول إليها والممنوع الوصول إليها. إذا رفض موقع إلكتروني عبر ملف robots.txt، فلا يمكن لشركات الذكاء الاصطناعي تجاهله ببساطة والتدريب على محتواه. لا يمكن لمحركات البحث معاقبة المواقع على استخدام هذه الاستثناءات. إنها خطوة قوية تُعيد صانعي المحتوى إلى موقع القيادة.

سيتعين على شركات الذكاء الاصطناعي أيضًا تجنب مواقع القرصنة بشكل فعال عند جمع بيانات التدريب. حتى أن الاتحاد الأوروبي يُشيرهم إلى "قائمة مراقبة التزوير والقرصنة" الخاصة به كنقطة بداية. 

ماذا يعني هذا للمستقبل

إن الاتحاد الأوروبي يخلق مجالاً جديدًا تمامًا لتطوير الذكاء الاصطناعي. وسوف تؤثر هذه المتطلبات على كل شيء بدءًا من كيفية تخطيط الشركات لمشاريع الذكاء الاصطناعي الخاصة بها وحتى كيفية جمع بيانات التدريب الخاصة بها.

تواجه كل شركة كبيرة في مجال الذكاء الاصطناعي الآن خيارًا. فهي بحاجة إلى الاختيار بين:

  • فتح نماذجهم للاختبار الخارجي
  • اكتشف كيف تبدو تلك "الوسائل البديلة" الغامضة للامتثال
  • أو ربما الحد من عملياتهم في سوق الاتحاد الأوروبي

إن الجدول الزمني هنا مهم أيضاً. إن الأمر لا يتعلق بلوائح مستقبلية بعيدة المدى ــ إن المفوضية تتحرك بسرعة. وقد نجحت في تقسيم نحو ألف من أصحاب المصلحة إلى أربع مجموعات عمل، حيث عملت جميعها على وضع التفاصيل المتعلقة بكيفية تنفيذ هذه اللوائح.

بالنسبة للشركات التي تبني أنظمة الذكاء الاصطناعي، فإن أيام "التحرك بسرعة ومعرفة القواعد لاحقًا" قد تقترب من نهايتها. وسوف تحتاج إلى البدء في التفكير في هذه المتطلبات الآن، وليس عندما تصبح إلزامية. وهذا يعني:

  • التخطيط لعمليات التدقيق الخارجية في الجدول الزمني للتطوير
  • إنشاء أنظمة قوية للامتثال لحقوق النشر
  • بناء أطر توثيقية تتوافق مع متطلبات الاتحاد الأوروبي

سيتضح الأثر الحقيقي لهذه اللوائح خلال الأشهر المقبلة. فبينما قد تسعى بعض الشركات إلى حلول بديلة، ستدمج شركات أخرى هذه المتطلبات في عمليات التطوير الخاصة بها. وقد يؤثر إطار عمل الاتحاد الأوروبي على كيفية تطوير الذكاء الاصطناعي عالميًا، خاصةً إذا اتبعت مناطق أخرى إجراءات رقابية مماثلة. ومع انتقال هذه القواعد من مرحلة المسودة إلى مرحلة التنفيذ، يواجه قطاع الذكاء الاصطناعي أكبر تحول تنظيمي له حتى الآن.

أليكس ماكفارلاند صحفي وكاتب في مجال الذكاء الاصطناعي يستكشف أحدث التطورات في مجال الذكاء الاصطناعي. لقد تعاون مع العديد من الشركات الناشئة والمنشورات في مجال الذكاء الاصطناعي في جميع أنحاء العالم.