Connect with us

تقنيات الذكاء الاصطناعي المتقدمة تعرض تحديات أخلاقية – قادة الفكر

الأخلاقيات

تقنيات الذكاء الاصطناعي المتقدمة تعرض تحديات أخلاقية – قادة الفكر

mm

بواسطة ألفريد كروز، نائب الرئيس والمستشار العام لقطاع الاستخبارات والأمن في BAE Systems Inc.

في وقت سابق من هذا العام، قبل الجائحة العالمية، حضرت مؤتمر إثيكس للاستخبارات في سيتاديل، حيث ناقشنا موضوع الأخلاقيات في جمع الاستخبارات فيما يتعلق بحماية الأمن القومي. في صناعة الدفاع، نشهد انتشار المعرفة والحوسبة وتقنيات متقدمة، خاصة في مجال الذكاء الاصطناعي (AI) والتعلم الآلي (ML). ومع ذلك، قد تكون هناك مشاكل كبيرة عند نشر الذكاء الاصطناعي في سياق جمع الاستخبارات أو القتال في الوقت الفعلي.

الذكاء الاصطناعي مع الحوسبة الكمومية يعرض مخاطر

ما يجب أن نسأله وتحليله وتحديد مسار للمضي قدمًا هو عند استخدام الذكاء الاصطناعي مع قدرات الحوسبة الكمومية في عملية اتخاذ القرارات في وقت الحرب. على سبيل المثال، تذكر فيلم Terminator؟ عندما تقفز تقنيتنا بأفكار وخطوات، فإن واقع ما قدمه سكاي نت أمامنا. قد نسأل أنفسنا، “هل سكاي نت قادم لنا؟” خذ جولة معي في ذكريات الماضي؛ أجهزة الذكاء الاصطناعي استولت على السيطرة لأنها كانت قادرة على التفكير و اتخاذ القرارات بنفسها، دون وجود إنسان ليتحكم فيها. عندما استنتجت الأجهزة أن البشر كانوا عيبًا، انطلقت لتدمير البشرية. لا تقلق، الذكاء الاصطناعي لديه إمكانات كبيرة، لكني أعتقد أنه يجب أن يكون هناك معايير تحكم بسبب العامل الخطر الموجود.

الغموض الأخلاقي والملحقات الفلسفية للذكاء الاصطناعي

أعتقد أن هذا هو السبب الذي دفع وزارة الدفاع الأمريكية (DoD) إلى إصدار مبادئها الأخلاقية الخاصة بالذكاء الاصطناعي، لأن استخدام الذكاء الاصطناعي يثير غموضًا أخلاقيًا ومخاطر جديدة. عند الجمع بين الذكاء الاصطناعي وقدرات الحوسبة الكمومية، تتغير القدرة على اتخاذ القرارات ويزيد خطر فقدان السيطرة – أكثر مما ندركه اليوم. الحوسبة الكمومية تجعل نظام تشغيل الدماغ البشري يبدو متواضعًا لأن الحواسيب الفائقة يمكنها إجراء حسابات أسرع وأكثر دقة من الدماغ البشري.

علاوة على ذلك، يطرح استخدام الذكاء الاصطناعي مع الحوسبة ملحقات فلسفية. في أي نقطة سيتاح للآلات أن تكون لها إرادة خاصة بها؛ وإذا سمح للأجهزة بالتفكير بنفسها، هل يعني ذلك أن الآلة أصبحت واعية؟ هل يعني كونها واعية أن تكون حية؟ كما مجتمع، لم نحدد بعد كيفية تعريف هذه الحالة. وبالتالي، كما هو الحال اليوم، قد تؤدي أجهزة تعمل بمفردها دون وجود إنسان ليتحكم فيها إلى عواقب. هل يمكن لآلة تجاوز تدخل إنسان لوقف إطلاق النار؟ إذا كانت الآلة تعمل بمفردها، هل سنتمكن من سحب المفتاح؟

كما أرى، استخدام الذكاء الاصطناعي من منظور دفاعي أمر سهل. ومع ذلك، كيف سيكون من السهل نقلها إلى الهجوم؟ في الهجوم، ستتخذ الآلات قرارات إطلاق نار قتالية على الفور. هل سيشكل إطلاق نار الآلة لعدو انتهاكًا لاتفاقية جنيف وقوانين النزاع المسلح؟ مع الدخول إلى هذا المجال بسرعة، يجب على العالم أن يتفق على أن استخدام الذكاء الاصطناعي والحوسبة الكمومية في القتال يجب أن يلعب دورًا في القوانين الحالية.

لوزارة الدفاع موقف عند استخدام الذكاء الاصطناعي مع الأنظمة المستقلة ويصر على أن هناك دائمًا شخصًا مشاركًا في عملية اتخاذ القرار؛ شخص سيتخذ القرار النهائي بشأن سحب الزناد لإطلاق سلاح. هذه قاعدتنا، ولكن ماذا يحدث إذا قرر عدو أن يتبع مسارًا آخر ويجعل آلة قادرة على الذكاء الاصطناعي تتخذ جميع القرارات النهائية؟ ثم ستكون الآلة، التي كما ناقشنا، أسرع وأكثر ذكاء ودقة، لها اليد العليا.

لننظر إلى طائرة بدون طيار مجهزة بالذكاء الاصطناعي والتعرف على الوجه: تطلق الطائرة النار بمفردها بسبب هدف محدد مسبقًا يتم اعتباره إرهابيًا. من هو المسؤول فعليًا عن إطلاق النار؟ هل هناك مساءلة إذا كان هناك خطأ متحيز؟

تحيز مخبأ في الذكاء الاصطناعي / التعلم الآلي

تؤكد الأبحاث على حقيقة أن الآلة أقل احتمالًا لارتكاب الأخطاء مقارنة بالإنسان. ومع ذلك، تؤكد الأبحاث أيضًا على وجود تحيز في التعلم الآلي بناءً على “المعلم” البشري الذي يعلم الآلة. مبادئ وزارة الدفاع الخمس للأخلاقيات للذكاء الاصطناعي تشير إلى التحيزات الحالية عندما تنص على “سيتخذ الدفاع خطوات متعمدة لتقليل التحيز غير المقصود في قدرات الذكاء الاصطناعي”. نحن نعلم بالفعل من خلال الدراسات التي أثبتت أن هناك تحيزات في تطبيقات التعرف على الوجه تجاه الأشخاص الملونين مع نتائج إيجابية كاذبة. عندما يخلق شخص كودًا يعلم الآلة كيفية اتخاذ القرارات، سيكون هناك تحيز. قد يكون هذا غير مقصود لأن الشخص الذي يخلق الذكاء الاصطناعي لم يكن على دراية بالتحيز الذي كان موجودًا في نفسه.

لذلك، كيف يمكننا القضاء على التحيز؟ إخراج الذكاء الاصطناعي جيد فقط مثل المدخل. لذلك، يجب أن يكون هناك ضوابط. يجب التحكم في البيانات المتدفقة لأن ذلك هو ما يمكن أن يجعل نتائج الذكاء الاصطناعي أقل صحة. سيتعين على المطورين إعادة كتابة الكود باستمرار ل_elimination_ التحيز.

العالم لتحديد أفضل استخدام للتكنولوجيا

التكنولوجيا في حد ذاتها ليست جيدة أو سيئة. إنه كيف يستخدمها البلد يمكن أن يأخذ أفضل النيات ويجعله ي goes wrong. مع تقدم التكنولوجيا بطرق تؤثر على حياة الإنسان، يجب على العالم العمل معًا لتحديد الإجراءات المناسبة. إذا أزلنا الإنسان من المعادلة في تطبيقات الذكاء الاصطناعي، فإننا نزل أيضًا ذلك التوقف قبل سحب الزناد – ذلك البوصلة الأخلاقية التي توجّهنا؛ ذلك التوقف عندما نتوقف ونطرح السؤال، “هل هذا صحيح؟” آلة تعلمت للانخراط لن يكون لها ذلك التوقف. لذلك، السؤال هو، في المستقبل، هل سيتعرض العالم لذلك؟ إلى أي مدى سيتعرض العالم لسماح الآلات باتخاذ قرارات قتالية؟

ألفريد كرووز جونيور هو نائب الرئيس والمستشار العام لقسم الاستخبارات والأمن في BAE Systems Inc، وهو من القيادات في تقديم خدمات الهندسة الإنشائية والتركيب والدعم على نطاق واسع عبر مجالات الجو والبر والبحر والفضاء والسيبرانية لوزارة الدفاع الأمريكية ومجتمع المخابرات والوكالات المدنية الفيدرالية والقوات المسلحة الموزعة حول العالم. يُشرف كرووز على الوظائف القانونية ومراقبة التصدير والأخلاقيات في القطاع.