رطم هل الذكاء الاصطناعي يمثل تهديدًا وجوديًا؟ - اتحدوا
اتصل بنا للحصول على مزيد من المعلومات

الذكاء العام الاصطناعي

هل الذكاء الاصطناعي يمثل تهديدًا وجوديًا؟

mm
تحديث on

عند مناقشة الذكاء الاصطناعي (AI)، يدور جدل مشترك حول ما إذا كان الذكاء الاصطناعي يمثل تهديدًا وجوديًا. تتطلب الإجابة فهم التكنولوجيا التي تعتمد على التعلم الآلي (ML)، والاعتراف بأن البشر لديهم ميل إلى التجسيم. سنستكشف نوعين مختلفين من الذكاء الاصطناعي، الذكاء الاصطناعي الضيق (ANI) المتوفر الآن ويثير القلق، والتهديد الذي يرتبط بشكل شائع بالإصدارات المروعة للذكاء الاصطناعي وهو الذكاء العام الاصطناعي (AGI).

تهديدات الذكاء الاصطناعي الضيق

لفهم ماهية ANI ، تحتاج ببساطة إلى فهم أن كل تطبيق AI متاح حاليًا هو شكل من أشكال ANI. هذه هي مجالات الذكاء الاصطناعي التي لها مجال تخصص ضيق ، على سبيل المثال ، تستخدم المركبات ذاتية القيادة الذكاء الاصطناعي المصمم لغرض وحيد هو نقل السيارة من النقطة أ إلى النقطة ب.قد يكون نوع آخر من ANI هو برنامج الشطرنج الذي تم تحسينه للعب لعبة الشطرنج ، وحتى إذا قام برنامج الشطرنج بتحسين نفسه باستمرار باستخدام التعلم المعزز ، فلن يتمكن برنامج الشطرنج أبدًا من تشغيل مركبة مستقلة.

مع تركيزها على أي عملية مسؤولة عنها ، فإن أنظمة ANI غير قادرة على استخدام التعلم العام من أجل السيطرة على العالم. هذا هو الخبر السار؛ النبأ السيئ هو أنه مع اعتماده على مشغل بشري ، فإن نظام الذكاء الاصطناعي يكون عرضة للبيانات المتحيزة أو الخطأ البشري أو حتى أسوأ من ذلك ، عامل بشري مارق.

مراقبة الذكاء الاصطناعي

قد لا يكون هناك خطر أكبر على البشرية من استخدام البشر للذكاء الاصطناعي لانتهاك الخصوصية ، وفي بعض الحالات استخدام مراقبة الذكاء الاصطناعي لمنع الناس تمامًا من التحرك بحرية.  مرت الصين وروسيا ودول أخرى باللوائح خلال COVID-19 لتمكينهم من مراقبة حركة سكانهم والسيطرة عليها. هذه قوانين كان من الصعب إلغاؤها ذات مرة ، خاصة في المجتمعات التي تتميز بقادة استبداديين.

في الصين ، يتم وضع الكاميرات خارج منازل الناس ، وفي بعض الحالات داخل منزل الشخص. في كل مرة يغادر فيها أحد أفراد الأسرة ، تراقب منظمة العفو الدولية وقت الوصول والمغادرة ، وتنبه السلطات إذا لزم الأمر. كما لو أن ذلك لم يكن كافيًا ، فبمساعدة تقنية التعرف على الوجه ، تستطيع الصين تتبع حركة كل شخص في كل مرة يتم التعرف عليه بواسطة الكاميرا. يوفر هذا سلطة مطلقة للكيان الذي يتحكم في الذكاء الاصطناعي ، ولا يلجأ مطلقًا إلى مواطنيه.

لماذا هذا السيناريو خطير ، هو أن الحكومات الفاسدة يمكنها أن تراقب بدقة تحركات الصحفيين أو المعارضين السياسيين أو أي شخص يجرؤ على التشكيك في سلطة الحكومة. من السهل أن نفهم كيف سيتوخى الصحفيون والمواطنون الحذر من انتقاد الحكومات عندما تتم مراقبة كل حركة.

لحسن الحظ ، هناك العديد من المدن التي تكافح لمنع التعرف على الوجه من التسلل إلى مدنهم. على وجه الخصوص ، أصدرت بورتلاند بولاية أوريغون قانونًا مؤخرًا يمنع استخدام التعرف على الوجه دون داعٍ في المدينة. في حين أن هذه التغييرات في التنظيم قد تكون مرت دون أن يلاحظها أحد من قبل عامة الناس ، فقد تكون هذه اللوائح في المستقبل هي الفرق بين المدن التي تقدم نوعًا من الاستقلالية والحرية ، والمدن التي تشعر بالقمع.

أسلحة وطائرات بدون طيار ذاتية التحكم

دعا أكثر من 4500 من أبحاث الذكاء الاصطناعي إلى فرض حظر على الأسلحة ذاتية التشغيل وابتكروا حظر الأسلحة الفتاكة ذاتية التشغيل موقع إلكتروني. المجموعة لديها العديد من المنظمات غير الربحية البارزة مثل الموقعين مثل هيومن رايتس ووتش, منظمة العفو الدولية، و معهد مستقبل الحياة التي لديها في حد ذاتها مجلس استشاري علمي ممتاز بما في ذلك إيلون موسك ونيك بوستروم وستيوارت راسل.

قبل المتابعة ، سأشارك هذا الاقتباس من معهد Future of Life الذي يشرح بشكل أفضل سبب وجود سبب واضح للقلق: "على عكس الأسلحة شبه المستقلة التي تتطلب إشرافًا بشريًا لضمان التحقق من شرعية كل هدف أخلاقياً وقانونياً ، مثل تقوم الأسلحة المستقلة بالكامل بتحديد الأهداف والاشتباك معها دون تدخل بشري ، مما يمثل أتمتة كاملة للضرر القاتل. "

حاليًا ، يتم نشر القنابل الذكية مع هدف يختاره الإنسان ، ثم تستخدم القنبلة الذكاء الاصطناعي لتخطيط مسار والهبوط على هدفها. المشكلة هي ماذا يحدث عندما نقرر إزالة الإنسان تمامًا من المعادلة؟

عندما يختار الذكاء الاصطناعي ما يحتاجه البشر للاستهداف ، بالإضافة إلى نوع الضرر الجانبي الذي يُعتبر مقبولاً ، فربما نكون قد تجاوزنا نقطة اللاعودة. هذا هو السبب في أن العديد من باحثي الذكاء الاصطناعي يعارضون البحث عن أي شيء يتعلق عن بعد بالأسلحة ذاتية التحكم.

هناك العديد من المشكلات المتعلقة بمحاولة منع أبحاث الأسلحة المستقلة. المشكلة الأولى هي أنه حتى إذا اختارت الدول المتقدمة مثل كندا والولايات المتحدة الأمريكية ومعظم أوروبا الموافقة على الحظر ، فهذا لا يعني أن الدول المارقة مثل الصين وكوريا الشمالية وإيران وروسيا ستلعب معًا. المشكلة الثانية والأكبر هي أن أبحاث الذكاء الاصطناعي والتطبيقات المصممة للاستخدام في مجال واحد ، يمكن استخدامها في مجال غير ذي صلة تمامًا.

على سبيل المثال، تتحسن رؤية الكمبيوتر باستمرار وهي مهمة لتطوير المركبات ذاتية القيادة والطب الدقيق وحالات الاستخدام المهمة الأخرى. كما أنه مهم بشكل أساسي للطائرات بدون طيار العادية أو الطائرات بدون طيار التي يمكن تعديلها لتصبح مستقلة. إحدى حالات الاستخدام المحتملة لتكنولوجيا الطائرات بدون طيار المتقدمة هي تطوير طائرات بدون طيار يمكنها مراقبة حرائق الغابات ومكافحتها. وهذا من شأنه أن يزيل رجال الإطفاء تمامًا من الأذى. من أجل القيام بذلك، ستحتاج إلى بناء طائرات بدون طيار قادرة على الطيران في المناطق الخطرة، والتنقل في ظروف رؤية منخفضة أو معدومة، وقادرة على إسقاط الماء بدقة لا تشوبها شائبة. ليس بعيدًا أن يتم استخدام هذه التكنولوجيا المتطابقة في طائرة بدون طيار مستقلة مصممة لاستهداف البشر بشكل انتقائي.

إنه مأزق خطير وفي هذه المرحلة من الزمن ، لا أحد يفهم تمامًا الآثار المترتبة على تطوير أو محاولة عرقلة تطوير الأسلحة المستقلة. ومع ذلك ، فهو شيء نحتاج إلى التركيز عليه وتعزيزه حماية المبلغين عن المنفاخ قد تمكن العاملين في الميدان من الإبلاغ عن الانتهاكات.

بغض النظر عن العامل المارق ، ماذا يحدث إذا تسلل انحياز الذكاء الاصطناعي إلى تكنولوجيا الذكاء الاصطناعي المصممة لتكون سلاحًا مستقلاً؟

AI التحيز

أحد أكثر التهديدات غير المبلغ عنها للذكاء الاصطناعي هو التحيز للذكاء الاصطناعي. هذا سهل الفهم لأن معظمه غير مقصود. ينزلق انحياز الذكاء الاصطناعي عندما يراجع الذكاء الاصطناعي البيانات التي يغذيها البشر ، باستخدام التعرف على الأنماط من البيانات التي تم تغذيتها للذكاء الاصطناعي ، يتوصل الذكاء الاصطناعي بشكل غير صحيح إلى استنتاجات قد يكون لها تداعيات سلبية على المجتمع. على سبيل المثال ، قد يصل الذكاء الاصطناعي الذي تم تغذيته بأدب القرن الماضي حول كيفية التعرف على العاملين في المجال الطبي إلى الاستنتاج الجنسي غير المرغوب فيه وهو: النساء ممرضات دائمًا ، والرجال دائمًا أطباء.

السيناريو الأكثر خطورة هو متى الذكاء الاصطناعي المستخدم في الحكم على المجرمين المدانين متحيز نحو إعطاء عقوبات سجن أطول للأقليات. تقوم خوارزميات تقييم المخاطر الجنائية الخاصة بالذكاء الاصطناعي بدراسة أنماط البيانات التي تم إدخالها في النظام. تشير هذه البيانات إلى أن أقليات معينة تاريخيًا من المرجح أن تعاود الإساءة ، حتى عندما يكون ذلك بسبب مجموعات البيانات الضعيفة التي قد تتأثر بالتنميط العنصري للشرطة. ثم يعزز الذكاء الاصطناعي المتحيز السياسات البشرية السلبية. هذا هو السبب في أن الذكاء الاصطناعي يجب أن يكون مبدأ توجيهيًا ، وألا يحكم أو يحكم أبدًا.

بالعودة إلى الأسلحة المستقلة ، إذا كان لدينا ذكاء اصطناعي متحيز ضد مجموعات عرقية معينة ، فيمكنه اختيار استهداف أفراد معينين بناءً على بيانات متحيزة ، ويمكن أن يذهب إلى حد ضمان أن أي نوع من الأضرار الجانبية يؤثر على بعض التركيبة السكانية أقل من الآخرين . على سبيل المثال ، عند استهداف إرهابي ، قبل مهاجمته يمكن أن ينتظر حتى يتم محاصرة الإرهابي من قبل أولئك الذين يتبعون العقيدة الإسلامية بدلاً من المسيحيين.

لحسن الحظ ، ثبت أن الذكاء الاصطناعي المصمم مع فرق متنوعة أقل عرضة للتحيز. هذا سبب كافٍ للمؤسسات لكي تحاول عندما يكون ذلك ممكنًا على الإطلاق توظيف فريق متنوع حسن الإدارة.

تهديدات الذكاء الاصطناعي العام

تجدر الإشارة إلى أنه بينما يتقدم الذكاء الاصطناعي بوتيرة متسارعة ، فإننا لم نحقق الذكاء الاصطناعي العام بعد. عندما نصل إلى الذكاء الاصطناعي العام ، سيكون الأمر مطروحًا للنقاش ، وكل شخص لديه إجابة مختلفة فيما يتعلق بالجدول الزمني. أنا شخصياً أؤيد آراء راي كورزويل ، المخترع والمستقبلي ومؤلف كتاب "التفرد قريب" الذي يعتقد أننا سنحصل على تحقيق الذكاء الاصطناعي العام بحلول عام 2029.

سيكون الذكاء الاصطناعي العام هو أكثر التقنيات تحويلية في العالم. في غضون أسابيع من تحقيق الذكاء الاصطناعي على المستوى البشري ، سيصل بعد ذلك الخارق والذي يُعرَّف بأنه ذكاء يفوق بكثير ذكاء الإنسان.

مع هذا المستوى من الذكاء ، يمكن للذكاء الاصطناعي العام أن يمتص بسرعة كل المعارف البشرية ويستخدم التعرف على الأنماط لتحديد المؤشرات الحيوية التي تسبب مشكلات صحية ، ومن ثم معالجة تلك الحالات باستخدام علم البيانات. يمكنه إنشاء روبوتات نانوية تدخل مجرى الدم لاستهداف الخلايا السرطانية أو نواقل الهجوم الأخرى. قائمة الإنجازات التي يستطيع الذكاء الاصطناعي العام تحقيقها لا حصر لها. لقد اكتشفنا سابقًا بعض فوائد الذكاء الاصطناعي العام.

تكمن المشكلة في أن البشر قد لا يعودون قادرين على التحكم في الذكاء الاصطناعي. يصفه إيلون ماسك بهذه الطريقة: "بالذكاء الاصطناعي نحن نستدعي الشيطان". هل سنتمكن من السيطرة على هذا الشيطان هو السؤال؟

قد يكون تحقيق الذكاء الاصطناعي العام أمرًا مستحيلًا حتى يترك الذكاء الاصطناعي بيئة محاكاة للتفاعل حقًا في عالمنا المفتوح. لا يمكن تصميم الوعي الذاتي ، بدلاً من ذلك يُعتقد أن الوعي الناشئ من المحتمل أن تتطور عندما يكون للذكاء الاصطناعي جسم آلي يتميز بتدفقات إدخال متعددة. قد تشمل هذه المدخلات التحفيز اللمسي ، والتعرف على الصوت مع فهم اللغة الطبيعية المعزز ، وزيادة رؤية الكمبيوتر.

قد تتم برمجة الذكاء الاصطناعي المتقدم بدوافع إيثارية ويريدون إنقاذ الكوكب. لسوء الحظ ، قد تستخدم منظمة العفو الدولية علم البياناتأو حتى شجرة القرار للوصول إلى منطق خاطئ غير مرغوب فيه ، مثل تقييم أنه من الضروري تعقيم البشر ، أو القضاء على بعض السكان من أجل السيطرة على الزيادة السكانية البشرية.

يجب استكشاف التفكير الدقيق والتداول عند بناء ذكاء اصطناعي بذكاء يفوق بكثير ذكاء الإنسان. كان هناك العديد من سيناريوهات الكوابيس التي تم استكشافها.

البروفيسور نيك بوستروم في حجة مشبك الورق Maximizer جادل بأن AGI الذي تم تكوينه بشكل خاطئ إذا طلب منه إنتاج مشابك الورق سوف يستهلك ببساطة جميع موارد الأرض لإنتاج مشابك الورق هذه. في حين أن هذا يبدو بعيد المنال بعض الشيء ، فإن وجهة النظر الأكثر واقعية هي أن الذكاء الاصطناعي العام يمكن أن تسيطر عليه دولة مارقة أو شركة ذات أخلاق رديئة. يمكن لهذا الكيان تدريب AGI لزيادة الأرباح ، وفي هذه الحالة مع البرمجة السيئة وعدم الندم ، يمكن أن يختار إفلاس المنافسين ، أو تدمير سلاسل التوريد ، أو اختراق سوق الأوراق المالية ، أو تصفية الحسابات المصرفية ، أو مهاجمة المعارضين السياسيين.

هذا هو الوقت الذي نحتاج فيه إلى تذكر أن البشر يميلون إلى التجسيم. لا يمكننا إعطاء الذكاء الاصطناعي عواطف أو رغبات أو رغبات من النوع البشري. بينما يوجد بشر شيطانيون يقتلون من أجل المتعة ، لا يوجد سبب للاعتقاد بأن الذكاء الاصطناعي سيكون عرضة لهذا النوع من السلوك. من غير المعقول أن يفكر البشر في كيفية رؤية الذكاء الاصطناعي للعالم.

بدلاً من ذلك ، ما نحتاج إلى القيام به هو تعليم الذكاء الاصطناعي أن يكون دائمًا محترمًا للإنسان. يجب أن يكون لدى الذكاء الاصطناعي دائمًا شخص يؤكد أي تغييرات في الإعدادات ، ويجب أن تكون هناك دائمًا آلية آمنة من الفشل. ثم مرة أخرى ، قيل إن الذكاء الاصطناعي سوف ينسخ نفسه ببساطة في السحابة ، وبحلول الوقت الذي ندرك فيه أنه يدرك نفسه ، فقد يكون الأوان قد فات.

هذا هو السبب في أنه من المهم للغاية فتح المصدر بأكبر قدر ممكن من الذكاء الاصطناعي وإجراء مناقشات عقلانية بشأن هذه القضايا.

نبذة عامة

هناك العديد من التحديات التي تواجه الذكاء الاصطناعي ، لحسن الحظ ، لا يزال أمامنا سنوات عديدة لنكتشف بشكل جماعي المسار المستقبلي الذي نريد أن يسلكه الذكاء الاصطناعي العام. يجب أن نركز على المدى القصير على إنشاء قوة عاملة متنوعة للذكاء الاصطناعي ، تضم أكبر عدد ممكن من النساء مثل الرجال ، وأكبر عدد ممكن من المجموعات العرقية ذات وجهات النظر المتنوعة.

يجب علينا أيضًا إنشاء حماية للمبلغين عن المخالفات للباحثين الذين يعملون في مجال الذكاء الاصطناعي ، ويجب علينا إصدار قوانين ولوائح تمنع إساءة استخدام الرقابة على مستوى الدولة أو الشركة على نطاق واسع. يتمتع البشر بفرصة واحدة في العمر لتحسين الحالة البشرية بمساعدة الذكاء الاصطناعي ، نحتاج فقط إلى التأكد من أننا نخلق بعناية إطارًا مجتمعيًا يمكّن الإيجابيات على أفضل وجه ، مع التخفيف من السلبيات التي تشمل التهديدات الوجودية.

شريك مؤسس في unite.AI وعضو في مجلس تكنولوجيا فوربس ، أنطوان أ المستقبلي من هو شغوف بمستقبل الذكاء الاصطناعي والروبوتات.

وهو أيضًا مؤسس Securities.io، موقع ويب يركز على الاستثمار في التكنولوجيا الثورية.