الذكاء الاصطناعي العام
يقول الباحثون إن البشر لن يكونوا قادرين على التحكم في الذكاء الاصطناعي الخارق

من المحتمل أن يكون أي شخص على دراية بالذكاء الاصطناعي (AI) قد سمع بعض الإصدارات حول كسره في النهاية للخروج من تحت السيطرة البشرية. هذا ليس مجرد موضوع من أفلام الخيال العلمي، ولكن بالأحرى إمكانية قوية جداً تثير قلق العديد من الخبراء في الصناعة. العديد من هؤلاء الخبراء، بما في ذلك العلماء، يؤيدون أن نبدأ في الاستعداد لهذه الإمكانية وتجنبها بكل الطرق الممكنة.
الآن، قام فريق دولي من الباحثين بتأييد هذه الفكرة بالحسابات النظرية. الفريق، الذي شمل علماء من مركز البشر والآلات في معهد ماكس بلانك للتنمية البشرية، استخدم هذه الحسابات لإظهار كيف أنه لن يكون من الممكن التحكم في الذكاء الاصطناعي الخارق.
نشر البحث مؤخرًا في مجلة أبحاث الذكاء الاصطناعي.
نظام الذكاء الاصطناعي الخارق
خوف من نظام الذكاء الاصطناعي الخارق يرتبط بالحقيقة التي أن مثل هذا النظام سيكون متفوقًا بشكل كبير على البشر. سيكون قادرًا على التعلم بشكل مستقل، كما يمكنه الوصول إلى جميع البيانات الحالية ومعالجتها بسرعة فائقة.
يمكن أن يؤدي مثل هذا الحدث إلى أن يأخذ الذكاء الاصطناعي الخارق على جميع الآلات الحالية على الإنترنت، وبالرغم من أنه يمكنه القيام بأشياء مثل علاج الأمراض وحل المشكلات الكبيرة التي تواجه البشرية، إلا أن خطر خروج الأمور عن السيطرة مرتفع أيضًا.
مانويل سيبريان هو مؤلف مشارك في الدراسة وقائد مجموعة التعبئة الرقمية في مركز البشر والآلات، معهد ماكس بلانك للتنمية البشرية.
“آلة ذكية خارقة تسيطر على العالم تبدو وكأنها خيال علمي. ولكن هناك بالفعل آلات تقوم ببعض المهام المهمة بشكل مستقل دون أن يفهم المبرمجون完全 كيف تعلمتها. ولذلك يطرح السؤال عما إذا كان هذا يمكن أن يصبح في بعض الأحيان غير قابل للسيطرة وخطيرًا على البشرية”، يقول سيبريان.
التحكم في النظام
هناك مدرستان فكريتان رئيسيتان عندما يتعلق الأمر بالسيطرة على مثل هذا النظام. أولًا، يمكن للبشر تقييد قدرات الذكاء الاصطناعي الخارق من خلال تقييد وصوله إلى بعض مصادر البيانات، مثل الإنترنت بالكامل. يمكن أن يعمل النظام دون أن يأتي في اتصال مع العالم الخارجي. ومع ذلك، المشكلة مع هذا هي أن هذا سوف يقيد إمكانات الذكاء الاصطناعي بشكل كبير.
سيتم التحكم في النظام من خلال السماح له بمتابعة النتائج التي من شأنها أن تفيد البشرية، ويمكن القيام بذلك عن طريق برمجة المبادئ الأخلاقية فيه.
شملت الدراسة تطوير خوارزمية احتواء نظرية تمنع الذكاء الاصطناعي الخارق من الإضرار بالبشر في أي ظرف. يمكن تحقيق ذلك من خلال إنشاء محاكاة لسلوك الذكاء الاصطناعي والكشف عن أي سلوك قد يكون ضارًا. على الرغم من هذه النظرية الواعدة، تشير التحليلات الحالية إلى أن مثل هذه الخوارزمية لا يمكن تطويرها.
إياد رحوان هو مدير مركز البشر والآلات.
“إذا قمت بتحليل المشكلة إلى قواعد أساسية من علوم الكمبيوتر النظرية، فمن الواضح أن خوارزمية قد تأمر الذكاء الاصطناعي بعدم تدمير العالم قد تؤدي إلى إيقاف عملياتها الخاصة. إذا حدث ذلك، لن تعرف ما إذا كانت خوارزمية الاحتواء لا تزال تحليل التهديد، أو ما إذا كانت قد توقفت لاحتواء الذكاء الاصطناعي الضار. في الواقع، هذا يجعل خوارزمية الاحتواء غير قابلة للاستخدام”، يقول رحوان.
هناك مشكلة أخرى وهي أن الخبراء قد لا يدركون حتى متى يصل آلة خارقة الذكاء إلى هذا الحالة، ويرجع ذلك في الغالب إلى حقيقة أن هذا سيكون أكثر ذكاءً من البشر.








