Connect with us

قالب لجنة الاتحاد الأوروبي الجديد GPAI – ماذا يعني هذا للتدريب على الذكاء الاصطناعي؟

قادة الفكر

قالب لجنة الاتحاد الأوروبي الجديد GPAI – ماذا يعني هذا للتدريب على الذكاء الاصطناعي؟

mm

في يوليو، أصدرت لجنة الاتحاد الأوروبي (EC) قالبًا جديدًا لتقديم معلومات حول النماذج العامة للذكاء الاصطناعي (GPAI). هذا يعني أن مقدمي الخدمات يجب أن يكشفوا عن المحتوى المدخل في النماذج لتدريبهم. جاء هذا بعد أشهر عديدة من العناوين الرئيسية المتعلقة بمصنعي المحتوى الذين يزعمون أن المحتوى تم استخدامه بدون موافقة لتدريب الذكاء الاصطناعي.

مع هذا القالب الجديد، أصبحت موقف الاتحاد الأوروبي واضحًا: الشفافية ليست قابلة للتفاوض. سوف لن يكون هناك خيار للطورين لاستخدام نماذج تعلم الذكاء الاصطناعي بدون كشف عن كيفية عملها. هذا يعتبر تغييرًا كبيرًا حيث سوف يتعين على المطورين كشف عن جميع البيانات المستخدمة في التدريب و مصدرها، مما يؤدي إلى إعادة تقييم جمع البيانات و استخدامها.

لقد لاحظ العديد من الناس الفرق الشديد بين هذا و خطة العمل الأمريكية للذكاء الاصطناعي التي تم إصدارها مؤخرًا، والتي تركز بشكل كبير على إلغاء التنظيم. مثل أي قانون أو تنظيم جديد، يجب على الشركات الآن تقييم كيف سوف يتأثر عملياتها بهذا القالب الجديد.

إذا كانوا يعملون عبر المناطق، سوف يكونون يفعلون الشيء نفسه مع خطة العمل الأمريكية للذكاء الاصطناعي، مما يزيد من الارتباك. بسبب الطبيعة المعقدة لهذه الخطة و حقيقة أن تنظيم تطوير الذكاء الاصطناعي بهذه الطريقة هو منطقة غير مكتشفة، من المحتمل أن تختلف مخرجات المطورين بشكل كبير.

فحص قالب نموذج الذكاء الاصطناعي العام

في يوليو من هذا العام، نشرت لجنة الاتحاد الأوروبي قالبًا إلزاميًا لمقدمي GPAI حتى يتمكنوا من نشر ملخص عام للبيانات المستخدمة في تدريب نماذجهم. كجزء من قانون الاتحاد الأوروبي للذكاء الاصطناعي، يجب على مقدمي الخدمات كشف عن فئات البيانات مثل مجموعات البيانات المتاحة للجمهور، البيانات المرخصة الخاصة، المحتوى الممسوح من الويب، بيانات المستخدم، والبيانات الاصطناعية. الهدف هو تمكين أصحاب حقوق النشر، المستخدمين، والمطورين من بعد ممارسة حقوقهم القانونية بموجب قانون الاتحاد الأوروبي.

تتم تدريب النماذج العامة للذكاء الاصطناعي باستخدام كميات كبيرة من البيانات، ومع ذلك، في السوق الحالية، هناك معلومات محدودة متاحة حول مصدر هذه البيانات. سوف يوفر الملخص العام الذي يحدده هذا القالب نظرة شاملة على البيانات المستخدمة في تدريب نموذج، ويسرد المجموعات الرئيسية للبيانات، ويوضح المصادر الأخرى المستخدمة.

مقارنة وتباين، خطة العمل الأمريكية للذكاء الاصطناعي

بالمقارنة، تعتزم الولايات المتحدة على الفوز في سباق الذكاء الاصطناعي والحفاظ على حافتها التنافسية على الصين، حيث أعلنت إدارة ترامب عن خطة العمل للذكاء الاصطناعي في وقت سابق من هذا الصيف. تهدف هذه الإطار الجديد للذكاء الاصطناعي إلى تسريع بناء مراكز البيانات التي تعتمد على الطاقة وتقدم أنظمة الذكاء الاصطناعي من خلال تخفيف التنظيمات البيئية. في الوقت نفسه، تسعى إلى زيادة التصدير العالمي لتكنولوجيا الذكاء الاصطناعي الأمريكية. تضم الخطة 90 توصية، وتعكس الجهود المتزايدة التي تبذلها الولايات المتحدة للبقاء في الصدارة من منافسيها العالميين.

تتمحور الخطة حول ثلاثة ركائز أساسية – تعزيز الابتكار، بناء البنية التحتية للذكاء الاصطناعي الأمريكية، وتعزيز القيادة في دبلوماسية وآمان الذكاء الاصطناعي الدولي.

كجزء من هذا، كان أحد النقاط الرئيسية في الخطة هو دفع الولايات المتحدة لتحفيز الابتكار والوصول من خلال دفعها لمصادر البرامج مفتوحة المصدر. في نفس الوقت، تسلط الخطة الضوء على كيفية قيام الحكومة الأمريكية بـ “التحلي بالleadership” فيما يتعلق بنمو الذكاء الاصطناعي – من خلال التدريب، وتبادل المواهب، وتوسيع النطاق عبر الصناعات.

تتمثل خطة الولايات المتحدة في简化 جميع لوائح التكنولوجيا الحالية، ولا سيما التنظيمات البيئية، لضمان أن التشريعات لا تبطئ النمو، في حين تشجع على التوزيع الدولي الوider لتكنولوجيا وبرامج الذكاء الاصطناعي الأمريكية. يعتبر هذا النهج “مضاد للتنظيم” بمثابة تحول واضح من الإطارات السابقة التي تركز على الأخلاقيات والشفافية والابتكار المسؤول – بدلاً من ذلك يتحرك نحو خطة عمل أكثر عدوانية “الابتكار أولاً”.

القسم المفقود

من المفيد أن نتخذ خطوة إلى الوراء في هذه المرحلة ونتساءل عما إذا كانت هذه الأفعال، على الرغم من اختلافها، قد تعاني من نفس العيوب التي قد تؤدي إلى عدم رؤية المطورين للقيمة في الامتثال لها. تترك نهج الاتحاد الأوروبي والولايات المتحدة فجوة حرجة حول حقوق الملكية الفكرية في مجموعات بيانات التدريب للذكاء الاصطناعي. يطالب قانون الاتحاد الأوروبي للذكاء الاصطناعي بملخصات بيانات التدريب وسياسة مطابقة حقوق النشر، ولكنه لا يحدد إطارًا قابلًا للتطوير لتحديد أو ترخيص الأعمال المحمية بحقوق النشر.

في الولايات المتحدة، لا توجد قواعد محددة على الإطلاق – تاركة شركات الذكاء الاصطناعي لتجاوز الإطار القانوني المتطور والمشكل من الأحكام القضائية والمنازعات الجارية مع أصحاب الحقوق. ما وراء النص القانوني، ما يفتقد هو الجانب العملي؛ لا يحدد أي من النهجين أساليب قابلة للتطبيق على مستوى الصناعة لاكتشاف المحتوى المحمي، أو التحقق من الاستخدام القانوني، أو تسهيل الترخيص. حتى يتم تعريف مثل هذه الحلول، ستبقى عدم اليقين حول حقوق النشر في بيانات التدريب للذكاء الاصطناعي تحديًا كبيرًا للصناعة.

التكلفة الخفية لشركات تجاهل تتبع الذكاء الاصطناعي

على الرغم من بعض العيوب في هذه التنظيمات، سوف يُفترض أنها سوف تؤدي إلى تركيز مطورو الذكاء الاصطناعي على كيفية البقاء على قيد الحياة من منظور قانوني – ولكن هذا ليس دائمًا الحال. في الواقع، الفرق الحقيقي في الذكاء الاصطناعي الآن ليس بين تنظيم الاتحاد الأوروبي والولايات المتحدة، ولكن بين الشركات التي تستثمر في التتبع اليوم وتلك التي تراهن على أنها لن تكون مطالبة بذلك. هذا هو تكرار لما رأيناه من قبل مع تنفيذ قانون حماية البيانات العامة (GDPR) – الشركات التي بنت خصوصية التصميم في وقت مبكر لم تتجنب فقط الغرامات ولكن أيضًا حصلت على ثقة المستهلكين وصولًا أسهل إلى أسواق أخرى التي أصبحت فيما بعد تقليد معايير GDPR.

قد يكون نفس النمط ي出现 مع الذكاء الاصطناعي. من المحتمل أن يصبح تتبع بيانات التدريب و قرارات النموذج قاعدة عالمية، والشركات التي تتأخر سوف يجب أن تعيد تصميم أنظمتها في المستقبل. العودة لإضافة التوثيق، تتبع الأصل، وميزات التدقيق إلى نظام موجود هو أكثر تكلفة وتعقيدًا من بناءها من البداية، مما يأخذ الانتباه بعيدًا عن بناء أكثر تركيزًا على العائد على الاستثمار الذي تريد الشركة إكماله.

بمعنى آخر، التتبع والشفافية ليسا إضافات اختيارية؛ يجب دمجها في أنظمة الذكاء الاصطناعي من البداية. الشركات التي تعاملها على أنه افتراضات سوف تتعرض لخطر إبطاء الابتكار، وستواجه ردود أفعال تنظيمية، وستفقد السباق إلى الأبد.

الذكاء الاصطناعي الأخلاقي يحتاج إلى وحدة عالمية

من منظور макروي، تخلق هذه النهج المتطرفة مشكلة حقيقية للشركات العالمية. الشركات في أسواق خفيفة اللمس مثل الولايات المتحدة يمكنها النمو بشكل أسرع في المدى القصير، ولكن عندما تقرر دخول الاتحاد الأوروبي، تواجه جدارًا للامتثال: تتطلب قواعد التتبع و الوثائق الخاصة بقانون الذكاء الاصطناعي القدرات التي لم يتم بناؤها من قبل.

إعادة بناء تتبع الأصل، الوثائق، وميزات التدقيق في نظام موجود هو مكلف وبطيء ومزعج، خاصة لأن التتبع هو واحد من أكثر أجزاء الامتثال تكلفة. إنه نفس النمط الذي رأيناه مع GDPR، حيث كافح المتأخرون في تصميم الخصوصية وواجهوا إعادة بناء مكلفة ومتأخرة للوصول إلى الأسواق، في حين حصل المبتكرون المبكرون على ميزة دائمة.

فيكتوريا لابينيته هي رئيس مستشار القانونية لمنتج Oxylabs. مع أكثر من عقد من الخبرة القانونية في قطاع تكنولوجيا المعلومات ، طور فيكتوريا لابينيته خبرة عميقة في التنقل في التحديات التجارية والتنظيمية المعقدة كمستشار قانوني داخلي. اليوم ، فيكتوريا هي رئيس مستشار القانونية لمنتج في Oxylabs ، وهي منصة رائدة في سوق جمع استخبارات الويب. تختص فريق فيكتوريا بالتعقيدات القانونية لتكنولوجيا البيانات الناشئة ، من إدارة الامتثال وإدارة المخاطر التنظيمية إلى خصوصية البيانات والمناقشات على مستوى الصناعة حول الحصول على البيانات بشكل مسؤول.