رطم مبادرة OpenAI الجديدة: توجيه الذكاء الاصطناعي الخارق في الاتجاه الصحيح - Unite.AI
اتصل بنا للحصول على مزيد من المعلومات

الذكاء العام الاصطناعي

مبادرة OpenAI الجديدة: توجيه الذكاء الاصطناعي الخارق في الاتجاه الصحيح

تم النشر

 on

أعلنت شركة OpenAI ، الشركة الرائدة في مجال الذكاء الاصطناعي ، مؤخرًا عن تشكيل فريق متخصص لإدارة المخاطر المرتبطة بالذكاء الاصطناعي الفائق. تأتي هذه الخطوة في وقت تتداول فيه الحكومات في جميع أنحاء العالم حول كيفية تنظيم تقنيات الذكاء الاصطناعي الناشئة.

فهم الذكاء الفائق الذكاء

يشير مصطلح Superintelligent AI إلى نماذج افتراضية للذكاء الاصطناعي تتفوق على البشر الأكثر موهبة وذكاءً في مجالات متعددة من الخبرة ، وليس مجرد مجال واحد مثل بعض نماذج الجيل السابق. تتوقع شركة OpenAI أن مثل هذا النموذج يمكن أن يظهر قبل نهاية العقد. تعتقد المنظمة أن الذكاء الخارق يمكن أن يكون أكثر التقنيات التي اخترعتها البشرية تأثيرًا على الإطلاق ، ومن المحتمل أن تساعدنا في حل العديد من مشاكل العالم الأكثر إلحاحًا. ومع ذلك ، فإن القوة الهائلة للذكاء الخارق يمكن أن تشكل أيضًا مخاطر كبيرة ، بما في ذلك عدم التمكين المحتمل للبشرية أو حتى الانقراض البشري.

فريق OpenAI's Superalignment

لمعالجة هذه المخاوف ، قامت شركة OpenAI بتشكيل "محاذاة فائقة"فريق ، يشارك في قيادته كبير العلماء في OpenAI إيليا سوتسكيفر وجان لايك ، رئيس قسم المواءمة في مختبر الأبحاث. سيتمكن الفريق من الوصول إلى 20٪ من قوة الحوسبة التي أمنتها OpenAI حاليًا. هدفهم هو تطوير باحث محاذاة آلي ، وهو نظام يمكن أن يساعد أوبن إيه آي في ضمان أن الذكاء الخارق آمن للاستخدام ومتوافق مع القيم الإنسانية.

بينما تقر شركة OpenAI بأن هذا هدف طموح بشكل لا يصدق وأن النجاح ليس مضمونًا ، تظل المنظمة متفائلة. أظهرت التجارب الأولية واعدة ، وهناك مقاييس مفيدة بشكل متزايد للتقدم متاحة. علاوة على ذلك ، يمكن استخدام النماذج الحالية لدراسة العديد من هذه المشكلات بشكل تجريبي.

الحاجة إلى التنظيم

يأتي تشكيل فريق Superalignment في الوقت الذي تدرس فيه الحكومات في جميع أنحاء العالم كيفية تنظيم صناعة الذكاء الاصطناعي الناشئة. التقى الرئيس التنفيذي لشركة OpenAI ، سام التمان ، بما لا يقل عن 100 مشرع فيدرالي في الأشهر الأخيرة. صرح ألتمان علنًا أن تنظيم الذكاء الاصطناعي "ضروري" وأن شركة أوبن إيه آي "حريصة" على العمل مع صانعي السياسات.

ومع ذلك ، من المهم التعامل مع مثل هذه التصريحات بدرجة من الشك. من خلال تركيز انتباه الجمهور على المخاطر الافتراضية التي قد لا تتحقق أبدًا ، يمكن لمنظمات مثل OpenAI أن تحول عبء التنظيم إلى المستقبل ، بدلاً من معالجة المشكلات العاجلة المتعلقة بالذكاء الاصطناعي والعمل ، والمعلومات الخاطئة ، وحقوق النشر التي يحتاج صانعو السياسات إلى معالجتها اليوم.

تعد مبادرة OpenAI لتشكيل فريق متخصص لإدارة مخاطر الذكاء الاصطناعي الفائق خطوة مهمة في الاتجاه الصحيح. ويؤكد أهمية التدابير الاستباقية في مواجهة التحديات المحتملة التي يفرضها الذكاء الاصطناعي المتقدم. مع استمرارنا في التغلب على تعقيدات تطوير وتنظيم الذكاء الاصطناعي ، تعمل مثل هذه المبادرات بمثابة تذكير بالحاجة إلى نهج متوازن ، نهج يستغل إمكانات الذكاء الاصطناعي مع الحماية أيضًا من مخاطره.

أليكس ماكفارلاند صحفي وكاتب في مجال الذكاء الاصطناعي يستكشف أحدث التطورات في مجال الذكاء الاصطناعي. لقد تعاون مع العديد من الشركات الناشئة والمنشورات في مجال الذكاء الاصطناعي في جميع أنحاء العالم.