Connect with us

كم سيؤثر قانون الاتحاد الأوروبي للذكاء الاصطناعي بشكل فعلي على عملك؟

قادة الفكر

كم سيؤثر قانون الاتحاد الأوروبي للذكاء الاصطناعي بشكل فعلي على عملك؟

mm

مع دخول الأحكام الجديدة حيز التنفيذ، إليك ما يجب على الشركات معرفته حول الامتثال

شهد 2 فبراير 2025 أول علامة فارقة في طرح قانون الاتحاد الأوروبي للذكاء الاصطناعي، مع أحكام تحظر ممارسات الذكاء الاصطناعي المحظورة وتطالب المنظمات بالتأكد من أن الموظفين لديهم المعرفة والمهارات والفهم الكافي حول كيفية عمل الذكاء الاصطناعي ومخاطره وفوائده (أدب الذكاء الاصطناعي). الآن، يمثل 2 أغسطس 2025 نقطة تحول حاسمة أخرى، حيث دخلت التزامات نماذج الذكاء الاصطناعي العام حيز التنفيذ.

ينطبق قانون الذكاء الاصطناعي على تلك التي تبيع أو تستورد أو توفر أنظمة أو نماذج ذكاء اصطناعي عامة في الاتحاد الأوروبي، سواء كانت مقرها في الاتحاد الأوروبي أم لا. كما ينطبق على الشركات الموجودة في الاتحاد الأوروبي التي تستخدم أنظمة أو نماذج ذكاء اصطناعي.

في حين أن الشركات حقيقية القلق بشأن التزامات الامتثال للذكاء الاصطناعي، فإن الواقع بالنسبة لمعظم الأعمال سيكون أقل دراماتيكية مما قد يبدو في البداية.

كشخص يدير شركة عالمية تستخدم الذكاء الاصطناعي على نطاق واسع في منصة إدارة الوثائق لدينا، لقد اضطررت إلى التنقل في هذا التنظيم أولاً بأول. الحقيقة هي أن قانون الذكاء الاصطناعي أكثر إدارة من ما يبدو في البداية – مشابه لما بدا قانون GDPR مخيفًا من منظور أمريكي ولكن أثبت أنه قابل للتنفيذ بمجرد فهم المبادئ.

ولكن على عكس تاريخ التنفيذ الفردي لGDPR، يتم طرح قانون الذكاء الاصطناعي بالمراحل. مع غرامات تصل إلى 35 مليون يورو أو 7٪ من إجمالي الإيرادات، وموجة تنفيذ حاسمة واحدة وراءنا وموعد نهائي كبير قادم، فإن الحصول على استراتيجية امتثال صحيحة هو أمر ضروري.

أين نحن على الجدول الزمني

截至 أغسطس 2025، دخلت التزامات نماذج الذكاء الاصطناعي العام حيز التنفيذ الآن – وهذا يؤثر على المزيد من الشركات مما يدركه معظم الناس. إذا كنت تستخدم نماذج أساسية مثل GPT-5 أو Claude أو Llama في منتجاتك، فقد ترث مهام امتثال حتى لو اعتبرت نفسك مجرد “مستخدم” للنموذج.

تتضمن التزامات إثبات الامتثال لقانون حقوق النشر في بيانات التدريب، وإجراء اختبارات معارضة لثغرات الأمان، وتنفيذ إجراءات أمان قوية، وتقديم توثيق فني مفصل حول قدرات وقيود النموذج.

ت假定 العديد من شركات السaaS أنها معفاة لأنها لا تطور النماذج من الصفر. لكن إذا كنت تقوم بتعديل النماذج أو تحسينها، فقد تجد نفسك خاضعًا لالتزامات نماذج الذكاء الاصطناعي العام. الخط الفاصل بين “استخدام” و “توفير” أنظمة الذكاء الاصطناعي هو متعمد بشكل واسع في التنظيم.

2 أغسطس 2026 هو الحدث الكبير الذي يجب مراقبته. بحلول هذا التاريخ، يجب على أنظمة الذكاء الاصطناعي المصنفة على أنها “عالية المخاطر” تلبية متطلبات الامتثال الشاملة. نطاقها أوسع مما يتوقعه معظم الأعمال، والالتزامات كبيرة.

تتضمن تصنيفات المخاطر العالية أنظمة تستخدم في التوظيف والتعيين، وتقييم الائتمان وصناعة القرارات المالية، والتقييم التعليمي، والتشخيص الطبي، والبنية التحتية الحيوية، وتطبيقات إنفاذ القانون. إذا ساعدت أداة الذكاء الاصطناعي في تحديد من يتم توظيفه، أو من يتم الموافقة على قروضه، أو من يتم قبوله في البرامج، أو من يتم تشخيصه بأمراض، فمن المحتمل أن تكون في نطاقه.

هناك عبء يأتي مع هذا. ستحتاج إلى أنظمة إدارة المخاطر الشاملة مع مراقبة مستمرة، ووثائق فنية تثبت سلامة نظامك وموثوقيته، ومعايير جودة البيانات مع دليل قابل للتدقيق على صحة بيانات التدريب، وتسجيل تلقائي لجميع عمليات النظام وعملياته، وإشراف بشري ذو معنى مع القدرة على التدخل في الوقت الفعلي، ووضع علامة CE مع تقييم مطابقة طرف ثالث.

هذا ليس فقط عن إضافة إفادة إلى موقعك على الويب. تتطلب الأنظمة عالية المخاطر نوع أنظمة إدارة الجودة التي تظهر عادة في تصنيع الأجهزة الطبية أو أنظمة أمان السيارات.

فهم فئات المخاطر

يعمل قانون الذكاء الاصطناعي على основе نهج قائم على المخاطر بأربعة مستويات، أكثر دقة مما يدركه nhiều منهم.

  • مخاطر غير مقبولة (محظورة): تُحظر تطبيقات الذكاء الاصطناعي هذه بشكل مباشر – أنظمة التقييم الاجتماعي، والذكاء الاصطناعي الخادع الذي يستهدف الفئات الضعيفة، والتعرف البيومتري في الوقت الفعلي في الأماكن العامة (مع استثناءات محدودة لإنفاذ القانون)، والتعرف على العواطف في أماكن العمل أو المدارس.
  • مخاطر عالية (محددة بشكل كبير، ولكن مسموح بها): هنا يتعثر العديد من الأعمال. كما ذكرنا أعلاه، تتضمن التطبيقات عالية المخاطر أدوات الفحص واختيار الموظفين، ونظم تقييم الائتمان وصناعة القرارات المالية، والأجهزة الطبية التشخيصية، وأنظمة الأمان في النقل (المركبات المستقلة، وإدارة المرور)، وأدوات التقييم التعليمي، وتطبيقات إنفاذ القانون، وإدارة البنية التحتية الحيوية.
  • مخاطر محدودة (تتطلب الشفافية): تتضمن هذه الأنظمة في الغالب الذكاء الاصطناعي الذي يتفاعل مباشرة مع البشر أو يولد محتوى يمكن أن يُخطئ بسهولة مع المواد التي أنتجها الإنسان. وتشمل هذه التطبيقات بوتات الدردشة، والمساعدين الافتراضيين، وأنظمة الذكاء الاصطناعي التي تُنشئ وسائط اصطناعية مثل الوجهات المزيفة أو الصور والفيديوهات المعدلة. بالنسبة لهذه التطبيقات، يتطلب الشرط التنظيمي الرئيسي الشفافية – يجب على المستخدمين أن يُبلغوا بوضوح عند تفاعلهم مع نظام ذكاء اصطناعي بدلاً من إنسان، أو عند توليد المحتوى بشكل اصطناعي.
  • مخاطر ضئيلة: يندرج معظم تطبيقات الذكاء الاصطناعي في فئة المخاطر الضئيلة، التي تغطي الأنظمة التي تشكل تهديدًا قليلاً للحقوق الأساسية أو السلامة. وتشمل هذه الأدوات التجارية الشائعة مثل مرشحات البريد العشوائي، ونظم إدارة المخزون، ومنصات التحليل الأساسية، ومحركات التوصية للمحتوى أو المنتجات، وتوجيه خدمة العملاء التلقائي. بالنسبة لأنظمة المخاطر الضئيلة، لا توجد التزامات تنظيمية محددة تقريبًا تحت قانون الذكاء الاصطناعي بخلاف المتطلبات العامة مثل أدب الذكاء الاصطناعي للموظفين.

إذا كنت تقع في فئات “مخاطر غير مقبولة” أو “مخاطر عالية”، فإن الشفافية وحدها لن تكون كافية. إذا كنت تقع في أي مكان آخر، فإن متطلبات الامتثال قابلة للإدارة.

تأثير نموذج الأساس

يستحق موعد أغسطس 2025 لنموذج GPAI الذي مر مؤخرًا الانتباه الخاص لأنه يخلق تأثيرًا متسلسلاً في جميع أنحاء نظام الذكاء الاصطناعي. اضطرت مقدمو نماذج الأساس مثل OpenAI و Anthropic و Meta إلى تنفيذ إجراءات امتثال جديدة، وتتأثر هذه المتطلبات بالعملاء المؤسسين.

إذا كنت تبني على هذه النماذج، ستحتاج إلى فهم موقف مقدم الخدمة من الامتثال وكيف يؤثر على التزاماتك. قد يقيّد بعض مقدمي النماذج بعض حالات الاستخدام، في حين قد يُمرر آخرون تكاليف الامتثال في شكل أسعار أعلى أو فئات خدمة جديدة.

يجب على الشركات أن تفتيش سلسلة توريد الذكاء الاصطناعي الآن إذا لم يفعلوا ذلك بعد. وثقوا النماذج التي تستخدمونها، وكيفية تعديلها، وما هي البيانات التي تتدفق من خلالها. سيكون هذا الجرد حاسمًا لفهم التزاماتك الحالية لنموذج GPAI والاستعداد لمتطلبات الأنظمة عالية المخاطر في عام 2026.

الاحتفاظ بالريادة

يمثل قانون الذكاء الاصطناعي أول تنظيم شامل للذكاء الاصطناعي في العالم، ونحن الآن في منتصف طرح مراحل التنفيذ. مع دخول التزامات GPAI حيز التنفيذ الآن، وموعد نهائي كبير قادم في أغسطس 2026، فإن الشركات التي اعتبرت GDPR عبئًا فاتت الفرصة لتحويل الخصوصية إلى ميزة. لا تكرر نفس الخطأ في حوكمة الذكاء الاصطناعي.

الشركات التي ستواجه صعوبات أكبر هي تلك التي تُدرك متأخرة عند تصاعد التنفيذ. تلك التي تبني مسؤولية اليوم ستجد أن الامتثال يعزز استراتيجية الذكاء الاصطناعي بدلاً من تعطيلها. لا يزال هناك وقت للاحتفاظ بالريادة – ولكن النافذة تُغلق بسرعة.

ستيفان دونزي هو المؤسس والرئيس التنفيذي لشركة AODocs، شركة برمجيات أنشأها بناءً على فكرة أن احتياجات المؤسسة من الامتثال والعمليات الفعالة لا تتعارض مع تجربة المستخدم الجيدة. قبل تأسيس AODocs، كان نائب الرئيس للهندسة في Exalead، شركة بحث مؤسسية رائدة. بعد استحواذ Dassault Systèmes على Exalead في عام 2010، انتقل إلى كاليفورنيا من باريس كنائب للestratégie المنتج. يحمل ستيفان درجة الماجستير في هندسة البرمجيات من École Polytechnique في فرنسا (X96). مع 18 عامًا من الخبرة في برمجيات المؤسسات، وهو مهتم بتجربة المستخدم عبر المنظمة.