رطم تعلن Credo AI عن أول منصة ذكاء اصطناعي مسؤولة في العالم - Unite.AI
اتصل بنا للحصول على مزيد من المعلومات

الأخلاقيات

تعلن Credo AI عن أول منصة ذكاء اصطناعي مسؤولة في العالم

تم النشر

 on

منظمة العفو الدولية Credo أعلنت عن توفر منصة الذكاء الاصطناعي المسؤولة ، والتي تعد الأولى من نوعها. يساعد منتج SaaS المؤسسات على الاستفادة من الأدوات لتوحيد وتوسيع نهجها تجاه الذكاء الاصطناعي المسؤول.

Credo AI مسؤول عن إنشاء أول حل حوكمة شامل وسياقي في العالم للذكاء الاصطناعي.

منصة الذكاء الاصطناعي المسؤولة

وفقًا للبيان الصحفي للشركة ، "تساعد منصة الذكاء الاصطناعي المسؤولة في Credo AI الشركات على تفعيل الذكاء الاصطناعي المسؤول من خلال توفير تقييم المخاطر والامتثال المستند إلى السياق أينما كانوا في رحلة الذكاء الاصطناعي الخاصة بهم."

هذا أمر بالغ الأهمية بالنظر إلى عدد شركات الذكاء الاصطناعي التي تواجه صعوبة في التوصل إلى مبادئ الذكاء الاصطناعي الضرورية وتنفيذها في الممارسة العملية.

باستخدام Credo AI، يمكن للفرق متعددة الوظائف التعاون في متطلبات الذكاء الاصطناعي المسؤول لأشياء مثل العدالة والأداء والخصوصية والأمان. تتيح المنصة أيضًا للفرق تقييم حالات استخدام الذكاء الاصطناعي الخاصة بهم للتأكد من استيفائهم للمتطلبات من خلال التقييمات الفنية لمجموعات البيانات ونماذج التعلم الآلي (ML). يمكنهم أيضًا إلقاء نظرة عميقة على عمليات التطوير.

تعتمد المنصة على إطار عمل تقييم المصدر المفتوح الخاص بـ Credo AI لتحقيق تقييمات أكثر تنظيماً وقابلية للتفسير لجميع أنواع المنظمات.

نافرينا سينغ هي المؤسس والرئيس التنفيذي لشركة Credo AI.

قال سينغ: "تهدف Credo AI إلى أن تكون شيربا للمؤسسات في مبادرات الذكاء الاصطناعي المسؤولة لتحقيق الرقابة والمساءلة على الذكاء الاصطناعي ، وتحديد الشكل الجيد لإطار الذكاء الاصطناعي الخاص بهم". "لقد ابتكرنا حلاً شاملاً ومستمرًا يركز على السياق لتقديم ذكاء اصطناعي مسؤول. يجب أن تتوافق الشركات مع متطلبات الذكاء الاصطناعي المسؤول عبر أصحاب المصلحة المتنوعين في وظائف التكنولوجيا والإشراف ، وأن تتخذ خطوات مدروسة لإظهار الإجراءات المتعلقة بهذه الأهداف وتحمل المسؤولية عن النتائج ".

منصة ميزات

تتضمن بعض ميزات منصة الذكاء الاصطناعي المسؤولة في Credo AI ما يلي:

  • تكامل التقييم السلس

  • التوافق بين أصحاب المصلحة المتعددين

  • الرقابة القائمة على المخاطر القرص الدوار

  • الجاهزية التنظيمية الجاهزة

  • التأكيد والتصديق

  • AI إدارة مخاطر البائعين

مع ميزات مثل AI Vendor Risk Management ، يمكن للمؤسسات استخدام Credo AI لتقييم مخاطر الذكاء الاصطناعي وامتثال منتجات ونماذج AI / ML الخاصة بطرف ثالث. تسمح الميزات الأخرى مثل الإشراف القابل للضبط المستند إلى المخاطر للفرق بضبط مستوى إدارة الإنسان في الحلقة بناءً على مستوى مخاطر حالة الاستخدام.

تأتي هذه التطورات الجديدة مع استمرار الحكومات في زيادة لوائح الذكاء الاصطناعي. على سبيل المثال ، هناك لوائح قادمة مثل قانون الاتحاد الأوروبي للذكاء الاصطناعي (AIA) ، بالإضافة إلى مشروع قانون في مدينة نيويورك يجعل من الإلزامي مراجعة أدوات قرار التوظيف بالذكاء الاصطناعي للتحقق من التحيز. هذه ليست سوى بعض الأسباب العديدة التي تجعل المؤسسات تختار الاعتماد على أدوات حوكمة الذكاء الاصطناعي مثل النظام الأساسي الجديد الذي أصدرته Credo AI.

أليكس ماكفارلاند صحفي وكاتب في مجال الذكاء الاصطناعي يستكشف أحدث التطورات في مجال الذكاء الاصطناعي. لقد تعاون مع العديد من الشركات الناشئة والمنشورات في مجال الذكاء الاصطناعي في جميع أنحاء العالم.