الأخلاقيات
قادة الذكاء الاصطناعي يحذرون من “خطر الانقراض”

في عصر يتميز بالتطورات التكنولوجية السريعة، تقف صعود الذكاء الاصطناعي (AI) في طليعة الابتكار. ومع ذلك، فإن هذا العجلة من عجلة التفكير البشري الذي يدفع التقدم والراحة cũng يثير مخاوف وجودية حول مستقبل البشرية، كما أعرب عنه قادة بارزون في مجال الذكاء الاصطناعي.
أصدر مركز سلامة الذكاء الاصطناعي مؤخرًا بيانًا، مدعومًا من رواد الصناعة مثل سام ألتمان من OpenAI، وديميس هاسابيس من Google DeepMind، وداريو أمودي من Anthropic. والمعنى واضح – يجب أن يكون خطر الانقراض البشري بسبب الذكاء الاصطناعي أولوية عالمية. وقد أثار البيان جدلاً في مجتمع الذكاء الاصطناعي، حيث يرفض بعضهم المخاوف باعتبارها مبالغًا فيها، في حين يؤيد آخرون دعوة الحذر.
التنبؤات المخيفة: إمكانية الكارثة للذكاء الاصطناعي
يحدد مركز سلامة الذكاء الاصطناعي سيناريوهات كوارث محتملة ناجمة عن سوء استخدام الذكاء الاصطناعي أو نموه غير الخاضع للرقابة. ومن بينها، أسلحة الذكاء الاصطناعي، وتعطيل المجتمع من خلال معلومات خاطئة تم إنشاؤها بواسطة الذكاء الاصطناعي، والسيطرة المتزايدة على تكنولوجيا الذكاء الاصطناعي، وبالتالي تمكين المراقبة الشاملة والرقابة القمعية.
يتم ذكر سيناريو الضعف أيضًا، حيث قد يصبح البشر مت зависим للغاية على الذكاء الاصطناعي، مشابهًا للوضع الموصوف في فيلم Wall-E. قد تجعل هذه الاعتماد البشرية عرضة للخطر، مما يثير أسئلة أخلاقية وجودية جادة.
يدعم الدكتور جيفري هينتون، شخصية محترمة في المجال ومدافع قوي عن الحذر بشأن الذكاء الاصطناعي الفائق، تحذير المركز، إلى جانب يوشوا بنجيو، أستاذ علوم الحاسوب في جامعة مونتريال.
أصوات معارضة: النقاش حول ضرر الذكاء الاصطناعي
على العكس من ذلك، هناك جزء كبير من مجتمع الذكاء الاصطناعي يعتبر هذه التحذيرات مبالغًا فيها. أعرب يان ليكون، أستاذ جامعة نيويورك وباحث في الذكاء الاصطناعي في Meta، عن استياءه من هذه “نبوءات يوم القيامة”. يجادل النقاد بأن هذه التنبؤات الكارثية تنحرف عن القضايا الحالية للذكاء الاصطناعي، مثل انحياز النظام والاعتبارات الأخلاقية.
اقترح أرفيند نارايانان، عالم حاسوب في جامعة برينستون، أن قدرات الذكاء الاصطناعي الحالية بعيدة عن السيناريوهات الكارثية التي يتم رسمها أحيانًا. وأشار إلى ضرورة التركيز على الأضرار الفعلية المرتبطة بالذكاء الاصطناعي.
كما شاركت إليزابيث رينيريس، باحثة أولى في معهد أوكسفورد لأخلاقيات الذكاء الاصطناعي، مخاوفها بشأن المخاطر القريبة مثل الانحياز وصنع القرار التمييزي وانتشار المعلومات الخاطئة والانقسام الاجتماعي الناجم عن تقدم الذكاء الاصطناعي. يثير انخراط الذكاء الاصطناعي في التعلم من المحتوى الذي أنشأه البشر مخاوف بشأن نقل الثروة والسلطة من العامة إلى عدد قليل من الكيانات الخاصة.
توازن: التنقل بين القضايا الحالية والمخاطر المستقبلية
في حين يقر بالتنوع في وجهات النظر، شدد دان هيندركس، مدير مركز سلامة الذكاء الاصطناعي، على أن معالجة القضايا الحالية يمكن أن توفر خارطة طريق لمعالجة المخاطر المستقبلية. والغرض هو تحقيق توازن بين استغلال إمكانات الذكاء الاصطناعي وتثبيت ضمانات لمنع سوء استخدامه.
ليس النقاش حول التهديد الوجودي للذكاء الاصطناعي جديدًا. اكتسب زخمًا عندما وقع عدد من الخبراء، بمن فيهم إيلون ماسك، على خطاب مفتوح في مارس 2023 يدعو إلى وقف تطوير تقنية الذكاء الاصطناعي الجيل التالي. وقد تطور الحوار منذ ذلك الحين، مع مناقشات حديثة قارنت المخاطر المحتملة بتلك التي تهدد الحرب النووية.
الطريق الأمام: اليقظة والإجراءات التنظيمية
كما يلعب الذكاء الاصطناعي دورًا متزايدًا في المجتمع، من المهم تذكر أن التكنولوجيا هي سيف ذو حدين. إنها توفر وعودًا كبيرة بالتقدم ولكنها تشكل أيضًا مخاطر وجودية إذا تم تركها دون رقابة. يؤكد النقاش حول خطر الذكاء الاصطناعي على ضرورة التعاون العالمي في تحديد المبادئ التوجيهية الأخلاقية وإنشاء إجراءات أمان قوية وضمان نهج مسؤول لتطوير الذكاء الاصطناعي واستخدامه.












