رطم يقول الباحثون إن البشر لن يكونوا قادرين على التحكم في الذكاء الاصطناعي الخارق - اتحدوا
اتصل بنا للحصول على مزيد من المعلومات

الذكاء العام الاصطناعي

يقول الباحثون إن البشر لن يكونوا قادرين على التحكم في الذكاء الاصطناعي الخارق

تحديث on

من المحتمل أن يكون أي شخص على دراية بالذكاء الاصطناعي (AI) قد سمع بعض الروايات حوله في النهاية وتحرر من سيطرة الإنسان. هذا ليس مجرد موضوع من أفلام الخيال العلمي ، ولكنه احتمال قوي للغاية لديه العديد من الخبراء في الصناعة المعنية. يدعو العديد من هؤلاء الخبراء ، بمن فيهم العلماء ، إلى البدء في الاستعداد لهذا الاحتمال وتجنبه بأي طريقة ممكنة. 

الآن ، أخذ فريق دولي من الباحثين هذه الفكرة ودعمها بحسابات نظرية. استخدم الفريق ، الذي ضم علماء من مركز البشر والآلات في معهد ماكس بلانك للتنمية البشرية ، تلك الحسابات لتوضيح كيف أنه لن يكون من الممكن التحكم في الذكاء الاصطناعي الخارق. 

تم نشر البحث مؤخرًا في مجلة بحوث الذكاء الاصطناعي

نظام الذكاء الاصطناعي الفائق

الخوف من نظام ذكاء اصطناعي فائق الذكاء له علاقة بحقيقة أن مثل هذا النظام سيكون أفضل بكثير من البشر. لن يكون قادرًا على التعلم بشكل مستقل فحسب ، بل يمكنه أيضًا الوصول إلى جميع البيانات الموجودة ومعالجتها بسرعة كبيرة. 

يمكن أن يؤدي مثل هذا الحدث إلى تجاوز الذكاء الاصطناعي الخارق لجميع الأجهزة الموجودة على الإنترنت ، وفي حين أنه يمكن أن يفعل أشياء مثل علاج الأمراض وحل المشكلات الرئيسية الأخرى التي تواجه البشرية ، فإن خطر خروج الأشياء عن السيطرة مرتفع أيضًا. 

مانويل سيبريان هو مؤلف مشارك للدراسة وقائد مجموعة التعبئة الرقمية في مركز البشر والآلات ، معهد ماكس بلانك للتنمية البشرية. 

"تبدو الآلة فائقة الذكاء التي تتحكم في العالم مثل الخيال العلمي. ولكن هناك بالفعل آلات تؤدي مهامًا مهمة معينة بشكل مستقل دون أن يفهم المبرمجون تمامًا كيف تعلموها. لذا فإن السؤال الذي يطرح نفسه هو ما إذا كان هذا يمكن أن يصبح في مرحلة ما غير قابل للسيطرة وخطيرًا على البشرية ، "يقول سيبريان. 

السيطرة على النظام

هناك مدرستان فكريتان رئيسيتان عندما يتعلق الأمر بالتحكم في مثل هذا النظام. أولاً ، يمكن للبشر أن يحدوا من قدرات الذكاء الاصطناعي الفائق الذكاء من خلال تقييد وصوله إلى بعض مصادر البيانات ، مثل الإنترنت بالكامل. يمكن للنظام أيضًا أن يعمل دون الاتصال بالعالم الخارجي. ومع ذلك ، فإن المشكلة في هذا هو أنه سيحد بشكل كبير من إمكانات الذكاء الاصطناعي.

سيتم التحكم في النظام من خلال السماح له فقط بمتابعة النتائج التي من شأنها أن تفيد البشرية ، ويمكن القيام بذلك عن طريق برمجة المبادئ الأخلاقية فيه. 

تضمنت الدراسة الفريق الذي طور خوارزمية احتواء نظرية تمنع الذكاء الاصطناعي الفائق من إيذاء البشر تحت أي ظرف من الظروف. يمكن تحقيق ذلك من خلال إنشاء محاكاة لسلوك الذكاء الاصطناعي أولاً واكتشاف أي سلوك قد يكون ضارًا. على الرغم من هذه النظرية الواعدة ، يُظهر التحليل الحالي أنه لا يمكن تطوير مثل هذه الخوارزمية. 

إياد رهوان هو مدير مركز الإنسان والآلات.

"إذا قسمت المشكلة إلى القواعد الأساسية من علوم الكمبيوتر النظرية ، فقد اتضح أن الخوارزمية التي قد تأمر الذكاء الاصطناعي بعدم تدمير العالم يمكن أن توقف عملياتها الخاصة عن غير قصد. إذا حدث هذا ، فلن تعرف ما إذا كانت خوارزمية الاحتواء لا تزال تحلل التهديد ، أو ما إذا كانت قد توقفت لاحتواء الذكاء الاصطناعي الضار. في الواقع ، هذا يجعل خوارزمية الاحتواء غير قابلة للاستخدام.

هناك مشكلة أخرى وهي أن الخبراء قد لا يدركون حتى عندما تصل آلة فائقة الذكاء إلى تلك الحالة ، ويرجع ذلك في الغالب إلى حقيقة أنها ستكون أكثر ذكاءً من البشر. 

 

أليكس ماكفارلاند صحفي وكاتب في مجال الذكاء الاصطناعي يستكشف أحدث التطورات في مجال الذكاء الاصطناعي. لقد تعاون مع العديد من الشركات الناشئة والمنشورات في مجال الذكاء الاصطناعي في جميع أنحاء العالم.