رطم إخفاقات مشروع قانون الذكاء الاصطناعي للاتحاد الأوروبي - Unite.AI
اتصل بنا للحصول على مزيد من المعلومات

اللائحة

إخفاقات مشروع قانون الذكاء الاصطناعي للاتحاد الأوروبي

mm
تحديث on

وجه نقد قانوني جديد لمشروع الاتحاد الأوروبي "قانون الذكاء الاصطناعي" مجموعة واسعة من الانتقادات للوائح المقترحة صدر في أبريل، وخلص إلى أن الكثير من الوثيقة "تم تجميعها معًا" من تنظيم المستهلك نادرًا في الثمانينيات ؛ أنه يروج بالفعل لبيئة ذكاء اصطناعي غير منظمة في أوروبا ، بدلاً من إخضاع القطاع لتنظيم متماسك ؛ و - من بين عدد كبير من الانتقادات الأخرى - أن المقترحات ترسم إطارًا تنظيميًا مستقبليًا للذكاء الاصطناعي "قليل الحس والتأثير".

بعنوان إزالة الغموض عن مشروع قانون الذكاء الاصطناعي للاتحاد الأوروبيأطلقت حملة ما قبل الطباعة هو تعاون بين باحثين من جامعة لندن UCL وجامعة رادبود في نيميغن.

تضيف الورقة إلى مجموعة متزايدة من الآراء السلبية حول التنفيذ المقترح (بدلاً من النية التي حظيت بإعجاب كبير) لإطار عمل الذكاء الاصطناعي التنظيمي ، بما في ذلك الخلاف في نيسان قال أحد المساهمين في مسودة اللائحة إن المبادئ التوجيهية المقترحة "فاترة وقصيرة النظر وغامضة بشكل متعمد" ، والتي وصفت وثيقة المفوضية الأوروبية بأنها مؤيدة لـ "الأخلاق الزائفة".

أنظمة الذكاء الاصطناعي المتلاعبة

تؤكد الورقة الجديدة أن القيود المقترحة في قانون الذكاء الاصطناعي على "الأنظمة المتلاعبة" يعيقها تعريف غامض وحتى متناقض لـ "الضرر" ، وعلقت على أن "[أي] الساخر قد يشعر أن اللجنة مهتمة بالقيمة الخطابية المحظورة أكثر من كونها عملية. تأثير'.

مشروع اللوائح حدد اثنين من الممارسات المحظورة المفترضة:

(أ) الطرح في السوق ، أو تشغيل أو استخدام نظام ذكاء اصطناعي ينشر تقنيات مموهة تتجاوز وعي الشخص من أجل تشويه سلوك الشخص ماديًا بطريقة تسبب أو من المحتمل أن تسبب ذلك الشخص أو شخصًا آخر جسديًا أو ضرر نفسي ؛

(ب) الطرح في السوق أو تشغيل أو استخدام نظام ذكاء اصطناعي يستغل أي من نقاط الضعف لمجموعة معينة من الأشخاص بسبب سنهم أو إعاقتهم الجسدية أو العقلية ، من أجل تشويه سلوك أي شخص ماديًا تتعلق بتلك المجموعة بطريقة تسبب أو يحتمل أن تسبب لذلك الشخص أو شخصًا آخر ضررًا جسديًا أو نفسيًا ؛

يجادل الباحثون بأن هذه القيود لا تتناول ما إذا كانت خدمات أو برمجيات مزود الذكاء الاصطناعي ناجحة أم لا في تعزيز أهدافهم الخاصة ، ولكن فقط إذا كان المستخدم النهائي يعاني من "ضرر" في هذه العملية. ويضيفون أن تعريف المسودة للضرر يقتصر بشكل قاتل على المستخدمين الفرديين ، وليس نوع الضرر الجماعي أو المجتمعي الذي يمكن استنتاجه بشكل معقول من عدد من الخلافات القائمة على الذكاء الاصطناعي في السنوات الأخيرة ، مثل كارثة Cambridge Analytica.

تلاحظ الورقة أنه "في الحياة الواقعية ، يمكن للضرر أن يتراكم دون أن يتعدى حدث واحد عتبة الجدية ، مما يجعل من الصعب إثباته".

أنظمة الذكاء الاصطناعي الضارة مسموح بها ، ولكن ليس لاستهلاك الاتحاد الأوروبي

يقترح قانون الذكاء الاصطناعي تنفيذ حظر على أنظمة القياسات الحيوية "في الوقت الفعلي" في الأماكن العامة من قبل أجهزة إنفاذ القانون. على الرغم من أن بعض التشكك العام كان يستهدف الاستثناءات التي تقدمها المقترحات لمكافحة الإرهاب والاتجار بالأطفال والسعي إلى إصدار مذكرة اعتقال أوروبية ، لاحظ الباحثون أيضًا أنه لا يوجد شيء يمنع الموردين من بيع أنظمة القياسات الحيوية المخالفة للأنظمة القمعية.

تلاحظ الورقة أن هذه ممارسة تاريخية بالفعل ، كما كشف تقرير منظمة العفو الدولية لعام 2020.

وتنص كذلك على أن مواصفات قانون الذكاء الاصطناعي لنظام القياسات الحيوية "في الوقت الفعلي" تعسفية ، وتستبعد الأنظمة التحليلية خارج الإنترنت ، مثل المعالجة اللاحقة لمقاطع الفيديو من أحداث الاحتجاج.

بالإضافة إلى ذلك ، لوحظ أن المقترحات لا تقدم أي آلية لتقييد أنظمة القياسات الحيوية الموجودة ليس المتعلقة بإنفاذ القانون ، والتي بدلاً من ذلك يتم تأجيلها ببطء إلى اللائحة العامة لحماية البيانات ؛ وأن اللائحة العامة لحماية البيانات نفسها "تضع شرطًا لموافقة فردية عالية الجودة لكل شخص تم مسحه ضوئيًا وهو أمر مستحيل فعليًا الوفاء به".

كما أن صياغة هذا القسم من قانون الذكاء الاصطناعي موضع انتقاد من الباحثين. تنص المسودة على ضرورة الحصول على إذن مسبق لنشر أنظمة القياسات الحيوية من أجل "الاستخدام الفردي" للسلطات المختصة لهذه الأنظمة - لكنها لا توضح معنى "الاستخدام الفردي" في هذا السياق. تشير الورقة إلى أن الأوامر المثيرة للجدل يمكن أن تكون كذلك موضوعي، وتتعلق بالمنظمات والأغراض والأماكن الواسعة.

علاوة على ذلك ، لا ينص مشروع اللوائح على آلية شفافية لعدد ونوع التراخيص الصادرة ، مما يجعل التدقيق العام إشكالية.

لائحة الاستعانة بمصادر خارجية لـ "المعايير المنسقة"

يشير البحث إلى أن أهم الكيانات في قانون الذكاء الاصطناعي لم يتم ذكرها في الواقع ولو مرة واحدة في مشروع اللوائح: CEN (اللجنة الأوروبية للتوحيد القياسي) و CENELEC (اللجنة الأوروبية للتقييس الكهروتقني) - اثنتان من ثلاث منظمات توحيد أوروبية (ESOs) التي يمكن للمفوضية الأوروبية أن تفوض صياغة معايير منسقة ، والتي ستظل في كثير من الحالات الأطر التنظيمية الحاكمة لأنواع معينة من خدمات الذكاء الاصطناعي وعمليات النشر.

وهذا يعني بشكل فعال أنه يمكن لمنتجي الذكاء الاصطناعي اختيار اتباع معايير ما هو في الواقع منافس بدلاً من اللوائح التكميلية ، بدلاً من تلبية المتطلبات الأساسية المنصوص عليها في قانون الذكاء الاصطناعي. يسمح هذا لمقدمي الخدمات بتفسير اللوائح المقترحة بشكل فضفاض عند دخولها حيز التنفيذ في 2024-5.

يرى باحثو الورقة أيضًا أن السنوات المتداخلة من الضغط الصناعي بين هيئات المعايير من المرجح أن تعيد تعريف هذه "المعايير الأساسية" بشكل كبير ، ويقترحون أن اللوائح "المثالية" يجب أن تبدأ على مستوى أخلاقي أعلى ووضوح تشريعي ، حتى لو كان ذلك فقط لمراعاة ذلك. عملية استنزاف حتمية.

إضفاء الشرعية على مغالطة أنظمة التعرف على المشاعر

يتضمن قانون الذكاء الاصطناعي حكمًا ضد نشر أنظمة التعرف على المشاعر وتصنيفها - وهي أطر قد لا تحدد بالضرورة الفرد ، ولكنها إما تدعي فهم ما يشعر به أو القدرة على تصنيفها من حيث الجنس والعرق ومختلف أنواع أخرى. الدلالات الاقتصادية والاجتماعية.

يجادل الباحثون بأن هذا البند لا طائل من ورائه ، لأن القانون العام لحماية البيانات يُلزم بالفعل موردي هذه الأنظمة بتزويد المستخدمين بمعلومات واضحة حول استخدام هذه الأنظمة ، بحيث يمكن للمستخدمين إلغاء الاشتراك (والذي قد يتضمن عدم استخدام خدمة عبر الإنترنت ، أو عدم الدخول المنطقة التي تم الإعلان عن وجود مثل هذه الأنظمة).

والأهم من ذلك ، تدعي الورقة أن هذا البند يضفي الشرعية على أ فضحت التكنولوجيا ، ويمضي في التوصيف FACS- أنظمة التعرف على الانفعالات في ضوء التاريخ المخزي لعلم فراسة الدماغ وغيرها من المقاربات شبه الشامانية للتصنيف الاجتماعي منذ بدايات العصر الصناعي.

أولئك الذين يدعون اكتشاف المشاعر يستخدمون تصنيفات مشكوك فيها ومبسطة ؛ تفترض بشكل غير صحيح العالمية عبر الثقافات والسياقات ؛ والمخاطرة "[بأخذنا] إلى الماضي الفرنسولوجي" لتحليل سمات الشخصية من تراكيب الوجه. يبدو أن أحكام القانون بشأن التعرف على المشاعر وتصنيف المقاييس الحيوية غير كافية للتخفيف من المخاطر.

اقتراح متواضع للغاية

إلى جانب ذلك، يعالج الباحثون أوجه القصور الملحوظة الأخرى في قانون الذكاء الاصطناعي فيما يتعلق بتنظيم التزييف العميق، ونقص الرقابة على انبعاثات الكربون لأنظمة الذكاء الاصطناعي، وازدواجية الرقابة التنظيمية مع الأطر الأخرى، والتعريف غير الكافي للكيانات القانونية الخاضعة للمحاكمة.

وهم يحثون المشرعين والنشطاء المدنيين على اتخاذ إجراءات لتصحيح المشكلات التي تم تحديدها ، ويلاحظون أنه حتى تفكيكهم الواسع لمسودة اللوائح كان عليه حذف العديد من المجالات الأخرى المثيرة للقلق ، بسبب نقص المساحة.

ومع ذلك ، تشيد الورقة بالمحاولة الطليعية للقانون لإدخال نظام تنظيم أفقي لأنظمة الذكاء الاصطناعي ، مستشهدة بالعديد من `` العناصر المعقولة '' ، مثل إنشاء تسلسل هرمي لمستويات تقييم المخاطر ، والالتزام بإدخال المحظورات ، واقتراح قاعدة بيانات عامة الأنظمة التي سيحتاج المورّدون إلى المساهمة فيها من أجل الحصول على الشرعية الأوروبية ، على الرغم من الإشارة إلى المآزق القانونية التي من المحتمل أن يطرحها هذا المطلب اللاحق.