رطم ماذا يعني قانون حقوق الذكاء الاصطناعي للبيت الأبيض بالنسبة لأمريكا وبقية العالم - اتحدوا
اتصل بنا للحصول على مزيد من المعلومات

الأخلاقيات

ماذا يعني قانون حقوق الذكاء الاصطناعي للبيت الأبيض لأمريكا وبقية العالم

mm
تحديث on

مكتب البيت الأبيض لسياسة العلوم والتكنولوجيا (OSTP) مؤخرًا أصدر ورقة بيضاء يسمى "مخطط قانون حقوق الذكاء الاصطناعي: جعل الأنظمة المؤتمتة تعمل لصالح الشعب الأمريكي". تم إصدار هذا الإطار بعد عام واحد من إعلان OSTP إطلاق عملية لتطوير "ميثاق حقوق لعالم يعمل بالذكاء الاصطناعي".

توضح مقدمة مشروع القانون هذا بوضوح أن البيت الأبيض يتفهم التهديدات الوشيكة للمجتمع التي يشكلها الذكاء الاصطناعي. وهذا ما جاء في المقدمة:

من بين التحديات الكبرى التي تواجه الديمقراطية اليوم استخدام التكنولوجيا والبيانات والأنظمة الآلية بطرق تهدد حقوق الجمهور الأمريكي. في كثير من الأحيان ، يتم استخدام هذه الأدوات للحد من فرصنا ومنع وصولنا إلى الموارد أو الخدمات الهامة. هذه المشاكل موثقة جيدا. في أمريكا وحول العالم ، ثبت أن الأنظمة التي من المفترض أن تساعد في رعاية المرضى غير آمنة أو غير فعالة أو متحيزة. تم العثور على الخوارزميات المستخدمة في قرارات التوظيف والائتمان لتعكس وإعادة إنتاج أوجه عدم المساواة القائمة غير المرغوب فيها أو تضمين تحيز ضار جديد وتمييز. تم استخدام جمع بيانات وسائل التواصل الاجتماعي غير الخاضع للرقابة لتهديد فرص الأشخاص أو تقويض خصوصيتهم أو تتبع نشاطهم على نطاق واسع - غالبًا بدون علمهم أو موافقتهم ".

ما تعنيه وثيقة الحقوق هذه والإطار الذي تقترحه لمستقبل الذكاء الاصطناعي لا يزال غير معروف. ما نعرفه هو أن التطورات الجديدة آخذة في الظهور بمعدل أسي باستمرار. ما كان يُنظر إليه على أنه مستحيل ، أصبحت الترجمة الفورية للغة حقيقة واقعة ، وفي نفس الوقت لدينا ثورة في فهم اللغة الطبيعية (NLU) بقيادة OpenAI ومنصتها الشهيرة GPT-3.

منذ ذلك الحين رأينا الجيل الفوري للصور عبر تقنية تسمى Stable Diffusion والتي قد تكون قريبًا أصبح منتجًا استهلاكيًا سائدًا. في جوهرها مع هذه التقنية ، يمكن للمستخدم ببساطة كتابة أي استعلام يمكنه تخيله ، ومثل السحر ، سينشئ الذكاء الاصطناعي صورة تطابق الاستعلام.

عند أخذ النمو الأسي و قانون تسريع العوائد سيأتي قريبًا وقت سيطر فيه الذكاء الاصطناعي على كل جانب من جوانب الحياة اليومية. الأفراد والشركات الذين يعرفون هذا ويستفيدون من هذا التحول النموذجي سوف يربحون. لسوء الحظ ، قد يقع جزء كبير من المجتمع ضحية كل من العواقب السيئة وغير المقصودة للذكاء الاصطناعي.

تهدف وثيقة الحقوق الخاصة بالذكاء الاصطناعي إلى دعم تطوير السياسات والممارسات التي تحمي الحقوق المدنية وتعزز القيم الديمقراطية في بناء الأنظمة المؤتمتة ونشرها وحوكمتها. كيف ستتم مقارنة هذا القانون نهج الصين لا يزال يتعين رؤيته ، لكن قانون الحقوق لديه القدرة على تغيير مشهد الذكاء الاصطناعي ، ومن المرجح أن يتبناه الحلفاء مثل أستراليا وكندا والاتحاد الأوروبي.

إن ذكر قانون حقوق الذكاء الاصطناعي غير ملزم ولا يشكل سياسة حكومة الولايات المتحدة. وهو لا يلغي أو يعدل أو يوجه تفسيرًا لأي قانون أو لائحة أو سياسة أو صك دولي موجود. ما يعنيه هذا هو أن الأمر متروك للشركات والحكومات للالتزام بالسياسات الموضحة في هذه الورقة البيضاء.

حدد مشروع القانون هذا خمسة مبادئ يجب أن توجه تصميم واستخدام ونشر الأنظمة الآلية لحماية الجمهور الأمريكي في عصر الذكاء الاصطناعي ، وفيما يلي سنحدد المبادئ الخمسة:

1. أنظمة آمنة وفعالة

هناك خطر واضح وقائم على المجتمع من خلال أنظمة الذكاء الاصطناعي المسيئة ، وخاصة تلك التي تعتمد على التعلم العميق. تتم محاولة معالجة هذا من خلال هذه المبادئ:

"يجب أن تكون محميًا من الأنظمة غير الآمنة غير الفعالة. يجب تطوير الأنظمة الآلية بالتشاور من مختلف المجتمعات وأصحاب المصلحة وخبراء المجال لتحديد المخاوف والمخاطر والآثار المحتملة للنظام. يجب أن تخضع الأنظمة لاختبارات ما قبل النشر ، وتحديد المخاطر والتخفيف من حدتها ، والمراقبة المستمرة التي تثبت أنها آمنة وفعالة بناءً على الاستخدام المقصود لها ، والتخفيف من النتائج غير الآمنة بما في ذلك تلك التي تتجاوز الاستخدام المقصود ، والالتزام بالمعايير الخاصة بالمجال. يجب أن تتضمن نتائج هذه الإجراءات الوقائية إمكانية عدم نشر النظام أو إزالة النظام من الاستخدام. لا ينبغي تصميم الأنظمة الآلية بقصد أو إمكانية متوقعة بشكل معقول لتعريض سلامتك أو سلامة مجتمعك للخطر. يجب أن تكون مصممة لحمايتك بشكل استباقي من الأضرار الناجمة عن الاستخدامات أو التأثيرات غير المقصودة ، ولكن المتوقعة ، للأنظمة الآلية. يجب أن تكون محميًا من استخدام البيانات غير الملائم أو غير ذي الصلة في تصميم وتطوير ونشر الأنظمة الآلية ، ومن الضرر المركب لإعادة استخدامها. يجب إجراء التقييم المستقل وإعداد التقارير التي تؤكد أن النظام آمن وفعال ، بما في ذلك الإبلاغ عن الخطوات المتخذة للتخفيف من الأضرار المحتملة ، وإعلان النتائج على الملأ كلما أمكن ذلك ".

2. الحماية من التمييز الحسابي

تتناول هذه السياسات بعض الأفيال الموجودة في الغرفة عندما يتعلق الأمر بالمؤسسات التي تسيء معاملة الأفراد.

من المشكلات الشائعة عند تعيين موظفين يستخدمون أنظمة الذكاء الاصطناعي أن نظام التعلم العميق سيتدرب غالبًا على البيانات المتحيزة للوصول إلى استنتاجات التوظيف. هذا يعني بشكل أساسي أن ممارسات التوظيف السيئة في الماضي ستؤدي إلى التمييز الجنساني أو العنصري من قبل وكيل التوظيف. أشارت إحدى الدراسات إلى أن صعوبة محاولة إزالة بيانات التدريب بين الجنسين.

هناك مشكلة أساسية أخرى تتعلق بالبيانات المتحيزة من قبل الحكومات وهي خطر الحبس غير المشروع، أو حتى أسوأ خوارزميات التنبؤ الإجرامي التي تقدم عقوبات سجن أطول للأقليات.

يجب ألا تواجه تمييزًا من خلال الخوارزميات ، ويجب استخدام الأنظمة وتصميمها بطريقة عادلة. يحدث التمييز الخوارزمي عندما تساهم الأنظمة الآلية في معالجة مختلفة غير مبررة أو تأثيرات مزعجة للأشخاص على أساس العرق واللون والعرق والجنس (بما في ذلك الحمل والولادة والحالات الطبية ذات الصلة والهوية الجنسية وحالة ثنائيي الجنس والتوجه الجنسي) الدين والعمر ، الأصل القومي أو الإعاقة أو حالة المحاربين القدامى أو المعلومات الوراثية أو أي تصنيف آخر يحميها القانون. اعتمادًا على الظروف المحددة ، مثل التمييز الخوارزمي قد ينتهك الحماية القانونية. يجب على المصممين والمطورين والناشرين للأنظمة الآلية اتخاذ تدابير استباقية ومستمرة لحماية الأفراد والمجتمعات من التمييز الخوارزمي واستخدام الأنظمة وتصميمها بطريقة عادلة. يجب أن تتضمن هذه الحماية تقييمات استباقية للإنصاف كجزء من تصميم النظام ، واستخدام البيانات التمثيلية والحماية من الوكلاء للسمات الديموغرافية ، وضمان إمكانية الوصول للأشخاص ذوي الإعاقة في التصميم والتطوير ، والنشر المسبق واختبار التباين المستمر والتخفيف ، والتنظيمية الواضحة الرقابة. يجب إجراء تقييم مستقل وتقارير بلغة واضحة في شكل تقييم تأثير حسابي ، بما في ذلك نتائج اختبار التباين ومعلومات التخفيف ، وإعلانها للجمهور كلما أمكن ذلك لتأكيد إجراءات الحماية هذه. "

تجدر الإشارة إلى أن الولايات المتحدة الأمريكية قد اتبعت نهجًا شديد الشفافية عندما يتعلق الأمر بالذكاء الاصطناعي ، فهذه سياسات مصممة لحماية عامة الناس ، تناقض واضح مع مناهج الذكاء الاصطناعي التي تتبعها الصين.

3. خصوصية البيانات

مبدأ خصوصية البيانات هذا هو المبدأ الذي من المرجح أن يؤثر على أكبر شريحة من السكان. يبدو أن النصف الأول من المبدأ يهتم بجمع البيانات ، وتحديداً مع البيانات التي يتم جمعها عبر الإنترنت ، وهي مشكلة معروفة خاصة لمنصات التواصل الاجتماعي. يمكن بعد ذلك استخدام هذه البيانات نفسها لبيع الإعلانات ، أو حتى الأسوأ من ذلك التلاعب بالمشاعر العامة والتأثير على الانتخابات.

"يجب أن تكون محميًا من ممارسات البيانات المسيئة من خلال وسائل الحماية المضمنة ويجب أن يكون لديك وكالة حول كيفية استخدام البيانات المتعلقة بك. يجب أن تكون محميًا من انتهاكات الخصوصية من خلال خيارات التصميم التي تضمن تضمين هذه الحماية بشكل افتراضي ، بما في ذلك التأكد من أن جمع البيانات يتوافق مع التوقعات المعقولة ، وأنه يتم جمع البيانات الضرورية للغاية للسياق المحدد فقط. يجب على المصممين والمطورين والناشرين للأنظمة الآلية الحصول على إذن منك واحترام قراراتك المتعلقة بجمع بياناتك واستخدامها والوصول إليها ونقلها وحذفها بالطرق المناسبة وإلى أقصى حد ممكن ؛ حيثما لا يكون ذلك ممكنًا ، يجب استخدام الخصوصية البديلة من خلال ضمانات التصميم. يجب ألا تستخدم الأنظمة تجربة المستخدم وقرارات التصميم التي تخفي اختيار المستخدم أو تثقل كاهل المستخدمين بالافتراضيات التي تشكل انتهاكًا للخصوصية. يجب استخدام الموافقة فقط لتبرير جمع البيانات في الحالات التي يمكن فيها منحها بشكل مناسب وذات مغزى. يجب أن تكون أي طلبات موافقة موجزة ، ومفهومة بلغة واضحة ، وتمنحك وكالة على جمع البيانات وسياق الاستخدام المحدد ؛ يجب تغيير ممارسات الإخطار والاختيار الحالية التي يصعب فهمها للاستخدامات الواسعة للبيانات ".

يبدو أن النصف الثاني من مبدأ خصوصية البيانات يهتم بالمراقبة من كل من الحكومات والشركات.

في الوقت الحالي ، تستطيع الشركات مراقبة الموظفين والتجسس عليهم ، وفي بعض الحالات قد يكون الأمر كذلك تحسين السلامة في مكان العملخلال جائحة كوفيد -19 ، كان الغرض من ارتداء الأقنعة هو فرض ارتداء الأقنعة ، وغالبًا ما يتم ذلك لمراقبة كيفية استخدام الوقت في العمل. في كثير من هذه الحالات ، يشعر الموظفون أنهم يخضعون للمراقبة والتحكم بما يتجاوز ما يعتبر مقبولاً.

"يجب أن تضعك تدابير الحماية والقيود المعززة للبيانات والاستنتاجات المتعلقة بالمجالات الحساسة ، بما في ذلك الصحة والعمل والتعليم والعدالة الجنائية والتمويل ، والبيانات المتعلقة بالشباب في المقام الأول. في المجالات الحساسة ، يجب استخدام بياناتك والاستنتاجات ذات الصلة فقط للوظائف الضرورية ، ويجب أن تكون محميًا من خلال المراجعة الأخلاقية واستخدام المحظورات. يجب أن تتحرر أنت ومجتمعاتك من المراقبة غير الخاضعة للرقابة ؛ يجب أن تخضع تقنيات المراقبة لرقابة مشددة تتضمن على الأقل تقييمًا قبل النشر لأضرارها المحتملة وحدود النطاق لحماية الخصوصية والحريات المدنية. لا ينبغي استخدام المراقبة والرصد المستمرين في التعليم أو العمل أو السكن أو في سياقات أخرى حيث من المرجح أن يؤدي استخدام تقنيات المراقبة هذه إلى تقييد الحقوق أو الفرص أو الوصول. كلما كان ذلك ممكنًا ، يجب أن تتمتع بإمكانية الوصول إلى التقارير التي تؤكد احترام قرارات البيانات الخاصة بك وتوفر تقييمًا للتأثير المحتمل لتقنيات المراقبة على حقوقك أو فرصك أو وصولك ".

تجدر الإشارة إلى أن يمكن استخدام الذكاء الاصطناعي لفائدة حماية خصوصية الأشخاص.

4. إشعار وشرح

يجب أن يكون هذا هو دعوة إلى الأسلحة للمؤسسات لنشر المجلس الاستشاري لأخلاقيات الذكاء الاصطناعي، وكذلك الدفع لتسريع تطوير AI قابل للتفسير. يُعد الذكاء الاصطناعي القابل للتفسير ضروريًا في حالة ارتكاب نموذج للذكاء الاصطناعي خطأً ، وفهم كيفية عمل الذكاء الاصطناعي يُمكّن من التشخيص السهل للمشكلة.

سيسمح الذكاء الاصطناعي القابل للتفسير أيضًا بالمشاركة الشفافة للمعلومات حول كيفية استخدام البيانات ، ولماذا اتخذ الذكاء الاصطناعي القرار. بدون الذكاء الاصطناعي القابل للتفسير ، سيكون من المستحيل الامتثال لهذه السياسات بسبب مشكلة الصندوق الأسود للتعلم العميق.

ستحقق الشركات التي تركز على تحسين هذه الأنظمة أيضًا فوائد إيجابية من فهم الفروق الدقيقة والتعقيدات الكامنة وراء اتخاذ خوارزمية التعلم العميق قرارًا محددًا.

"يجب أن تعلم أنه يتم استخدام نظام آلي وأن تفهم كيف ولماذا يساهم في النتائج التي تؤثر عليك. يجب على المصممين والمطورين والناشرين للأنظمة الآلية توفير وثائق لغة بسيطة يمكن الوصول إليها بشكل عام بما في ذلك أوصاف واضحة لأداء النظام بشكل عام والدور الذي تلعبه الأتمتة ، ولاحظ أن هذه الأنظمة قيد الاستخدام ، والفرد أو المنظمة المسؤولة عن النظام ، والتفسيرات من النتائج التي تكون واضحة وفي الوقت المناسب ويمكن الوصول إليها. يجب أن يظل هذا الإشعار محدثًا ويجب إخطار الأشخاص المتأثرين بالنظام بحالة الاستخدام المهمة أو التغييرات الوظيفية الرئيسية. يجب أن تعرف كيف ولماذا تم تحديد النتيجة التي تؤثر عليك بواسطة نظام آلي ، بما في ذلك عندما لا يكون النظام الآلي هو المدخل الوحيد الذي يحدد النتيجة. يجب أن توفر الأنظمة المؤتمتة تفسيرات صالحة تقنيًا وذات مغزى ومفيدة لك ولأي مشغلين أو غيرهم ممن يحتاجون إلى فهم النظام ، ومعايرة لمستوى المخاطر بناءً على المحتوى. يجب جعل التقارير التي تتضمن معلومات موجزة عن هذه الأنظمة الآلية بلغة واضحة وتقييمات وضوح وجودة الإشعار والتفسيرات علنية كلما أمكن ذلك ".

5. البدائل البشرية ، والاعتبار ، والاحتياطي

على عكس معظم المبادئ المذكورة أعلاه ، فإن هذا المبدأ هو الأكثر قابلية للتطبيق على الهيئات الحكومية ، أو المؤسسات المخصخصة التي تعمل نيابة عن الحكومة.

حتى مع وجود مجلس أخلاقي للذكاء الاصطناعي والذكاء الاصطناعي القابل للتفسير ، من المهم الرجوع إلى المراجعة البشرية عندما تكون الحياة على المحك. هناك دائمًا احتمال حدوث خطأ ، ويمكن أن يؤدي إجراء مراجعة بشرية للحالة عند الطلب إلى تجنب سيناريو مثل منظمة العفو الدولية ترسل الأشخاص الخطأ إلى السجن.

يتمتع النظام القضائي والجنائي بأكبر مساحة لإحداث ضرر لا يمكن إصلاحه لأفراد المجتمع المهمشين ، ويجب أن يأخذ في الاعتبار هذا المبدأ بشكل خاص.

"يجب أن تكون قادرًا على إلغاء الاشتراك ، عند الاقتضاء ، والوصول إلى شخص يمكنه التفكير بسرعة في المشكلات التي تواجهها ومعالجتها. يجب أن تكون قادرًا على الانسحاب من الأنظمة الآلية لصالح بديل بشري ، عند الاقتضاء. يجب تحديد الملاءمة بناءً على التوقعات المعقولة في سياق معين ومع التركيز على ضمان الوصول الواسع وحماية الجمهور من الآثار الضارة بشكل خاص. في بعض الحالات ، قد يتطلب القانون بديلًا بشريًا أو غيره. يجب أن يكون لديك حق الوصول إلى الاعتبار البشري في الوقت المناسب وعلاجه من خلال مشكلة احتياطي وتصعيد إذا فشل أي نظام آلي ، أو نتج عنه خطأ ، أو إذا كنت ترغب في الاستئناف أو الطعن في تأثيره عليك. يجب أن يكون الاعتبار البشري والرجوع في المتناول ، ومنصفًا وفعالًا ومُحافظًا عليه ، مصحوبًا بتدريب مناسب للمشغل ، ويجب ألا يفرض عبئًا غير معقول على الجمهور. يجب أن تكون الأنظمة المؤتمتة ذات الاستخدام المقصود داخل المجالات الحساسة ، بما في ذلك ، على سبيل المثال لا الحصر ، النظام الجنائي والتوظيف والتعليم والصحة ، مصممة أيضًا خصيصًا للغرض ، وتوفر وصولاً هادفًا إلى الرقابة ، بما في ذلك التدريب لأي شخص يتفاعل مع النظام ، وتضمين الاعتبار البشري للقرارات السلبية أو عالية المخاطر. يجب نشر التقارير التي تتضمن وصفًا لعمليات الحوكمة البشرية وتقييم توقيتها وإمكانية الوصول إليها ونتائجها وفعاليتها كلما أمكن ذلك ".

نبذة عامة

ينبغي أن يُنسب الفضل إلى OSTP في محاولته تقديم إطار عمل يربط بين بروتوكولات السلامة اللازمة للمجتمع، دون تقديم سياسات صارمة يمكن أن تعيق التقدم في تطوير التعلم الآلي.

بعد تحديد المبادئ ، يستمر مشروع القانون من خلال توفير مصاحب تقني للقضايا التي تمت مناقشتها بالإضافة إلى معلومات مفصلة حول كل مبدأ وأفضل الطرق للمضي قدمًا في تنفيذ هذه المبادئ.

يجب على أصحاب الأعمال والشركات الأذكياء ملاحظة ذلك دراسة هذا القانون، لأنه قد يكون من المفيد فقط تنفيذ هذه السياسات في أسرع وقت ممكن.

سيستمر الذكاء الاصطناعي القابل للتفسير في الهيمنة على الأهمية ، كما يتضح من هذا الاقتباس من الفاتورة.

تجري الوكالات عبر الحكومة الفيدرالية وتدعم الأبحاث حول أنظمة الذكاء الاصطناعي القابلة للتفسير. يجري المعهد القومي للمعايير والتكنولوجيا (NIST) بحثًا أساسيًا حول قابلية شرح أنظمة الذكاء الاصطناعي. يهدف فريق متعدد التخصصات من الباحثين إلى تطوير طرق القياس وأفضل الممارسات لدعم تنفيذ المبادئ الأساسية للذكاء الاصطناعي القابل للتفسير. تمتلك وكالة مشاريع الأبحاث الدفاعية المتقدمة برنامجًا حول الذكاء الاصطناعي القابل للتفسير والذي يهدف إلى إنشاء مجموعة من تقنيات التعلم الآلي التي تنتج نماذج أكثر قابلية للتفسير ، مع الحفاظ على مستوى عالٍ من أداء التعلم (دقة التنبؤ) ، وتمكين المستخدمين البشريين من الفهم بشكل مناسب. الثقة والإدارة الفعالة للجيل الناشئ من شركاء الذكاء الاصطناعي. يتضمن برنامج National Science Foundation الخاص بالإنصاف في الذكاء الاصطناعي أيضًا اهتمامًا محددًا بأسس البحث للذكاء الاصطناعي القابل للتفسير ".

ما لا ينبغي إغفاله هو أن المبادئ الموضحة هنا ستصبح في النهاية المعيار الجديد.

شريك مؤسس في unite.AI وعضو في مجلس تكنولوجيا فوربس ، أنطوان أ المستقبلي من هو شغوف بمستقبل الذكاء الاصطناعي والروبوتات.

وهو أيضًا مؤسس Securities.io، موقع ويب يركز على الاستثمار في التكنولوجيا الثورية.