Connect with us

مبادئ أخلاقيات الذكاء الاصطناعي تخضع للتحليل المتأثر، وتُشدد على حقوق الإنسان

الأخلاقيات

مبادئ أخلاقيات الذكاء الاصطناعي تخضع للتحليل المتأثر، وتُشدد على حقوق الإنسان

mm

في عام 2019، كان هناك تركيز أكبر على أخلاقيات الذكاء الاصطناعي أكثر من أي وقت مضى. ومع ذلك، بدا الكثير من هذا النقاش غامضًا، دون نهج محدد. بدلاً من ذلك، أنشأت الشركات المختلفة إطاراتها وسياساتها الخاصة المتعلقة بأخلاقيات الذكاء الاصطناعي. من المهم أن يكون هناك إجماع على قضايا أخلاقيات الذكاء الاصطناعي لأنها تساعد صانعي السياسات على إنشاء السياسات وتعديلها، وأيضًا إطلاع عمل الباحثين والمتخصصين. إلى جانب ذلك، يجب على شركات الذكاء الاصطناعي أن تعرف أين تقع الحدود الأخلاقية إذا كانت تأمل في تجنب تنفيذ الذكاء الاصطناعي غير الأخلاقي. من أجل إنشاء صورة أفضل لاتجاهات أخلاقيات الذكاء الاصطناعي، كما تقارير VentureBeats، قام مركز بيركمان كلاين بجامعة هارفارد بالتحليل المتأثر لمبادئ أخلاقيات الذكاء الاصطناعي والإطارات الحالية.

وفقًا لمؤلفي التحليل، أراد الباحثون مقارنة المبادئ جنبًا إلى جنب للبحث عن الت重疊 والانحراف.explained جيسيكا فيلد، مديرة مساعدة عيادة القانون السيبراني بجامعة هارفارد للقانون، أن فريق البحث أراد “كشف الزخم الخفي في حوار عالمي متشظي حول مستقبل الذكاء الاصطناعي، مما أدى إلى هذا الورقة البيضاء والتصوير البياني المرتبط بها.”

خلال التحليل، فحص الفريق 36 وثيقة مبدأ مختلفة أصلت من جميع أنحاء العالم وتنتمي إلى nhiều أنواع منظمات. أظهرت نتائج البحث أن هناك ثمانية مواضيع ظهرت باستمرار عبر الوثائق المختلفة.

الخصوصية والمساءلة كانتا من أكثر المواضيع الأخلاقية شيوعًا، وكذلك أمان/سلامة الذكاء الاصطناعي. كما تم الاستشهاد بالشفافية / القابلية للتفسير كهدف شائع، مع العديد من المحاولات لجعل الخوارزميات أكثر تفسيرًا خلال عام 2019. كانت العدالة / عدم التمييز نقطة تركيز أخلاقية أخرى، مما يعكس المخاوف المتزايدة حول انحياز البيانات. كما تم ذكر ضمان التحكم البشري في التكنولوجيا، وألا يستسلم السلطة القرارية للذكاء الاصطناعي. كانت المسؤولية المهنية هي الموضوع السابع الشائع الذي وجده الباحثون. وأخيرًا، وجد الباحثون ذكرًا مستمرًا للترويج للقيم الإنسانية في توثيق أخلاقيات الذكاء الاصطناعي التي فحصوها.

قدم فريق البحث تحليلًا نوعيًا وكميًا لكيفية ظهور هذه المواضيع داخل توثيق أخلاقيات الذكاء الاصطناعي في ورقتهم وفي خريطة مرافقة. تُظهر الخريطة حيث تم ذكر كل من المواضيع.

وأشار فريق البحث إلى أن الكثير من مناقشة أخلاقيات الذكاء الاصطناعي تدور حول القلق بشأن القيم والحقوق الإنسانية. كما يشير ورقة البحث إلى:

“64٪ من وثائقنا تحتوي على إشارة إلى حقوق الإنسان، وخمسة وثائق [14٪] اعتمدت حقوق الإنسان الدولية كإطار لجهدها العام.”

كانت الإشارات إلى حقوق الإنسان والقيم أكثر شيوعًا في الوثائق التي أنتجها مجموعات القطاع الخاص ومنظمات المجتمع المدني. هذا يشير إلى أن شركات القطاع الخاص للذكاء الاصطناعي لا تهتم فقط بالربح ولكن بإنتاج الذكاء الاصطناعي بطريقة أخلاقية. في غضون ذلك، يبدو أن الوكالات الحكومية أقل قلقًا أو دراية بأخلاقيات الذكاء الاصطناعي بشكل عام، مع أقل من نصف الوثائق المتعلقة بالذكاء الاصطناعي المنشأة من قبل الوكالات الحكومية التي تهتم بأخلاقيات الذكاء الاصطناعي.

كما أشار الباحثون إلى أنه إذا كانت الوثائق التي فحصوها حديثة، فمن المرجح أن تتناول جميع المواضيع الثمانية البارزة بدلاً من بضع مواضيع فقط. هذا الحقائق يفترض أن الأفكار وراء ما يشكل استخدامًا أخلاقيًا للذكاء الاصطناعي ت开始 تتشكل بين من يؤدون المناقشة حول أخلاقيات الذكاء الاصطناعي. أخيرًا، يذكر الباحثون أن نجاح هذه المبادئ في توجيه تطوير الذكاء الاصطناعي سيعتمد على مدى جودة دمجها في مجتمع تطوير الذكاء الاصطناعي بشكل عام. يذكر الباحثون في الورقة:

“علاوة على ذلك، المبادئ هي نقطة انطلاق للحوكمة، وليست نهاية. بمفردها، من غير المحتمل أن يكون لمجموعة من المبادئ أكثر من كونها مقنعة برفق. من المرجح أن يعتمد تأثيرها على كيفية دمجها في نظام حوكمة أكبر، بما في ذلك على سبيل المثال السياسات ذات الصلة (مثل خطط الذكاء الاصطناعي الوطنية)، والقوانين، واللوائح، ولكن أيضًا الممارسات المهنية والروتين اليومي.”

مدون وبرمجي متخصص في مواضيع Machine Learning و Deep Learning. يأمل دانيال في مساعدة الآخرين على استخدام قوة الذكاء الاصطناعي من أجل الخير الاجتماعي.