مقابلات
نورا بيتروا، مهندس تعلم الآلة و مستشار ذكاء اصطناعي في Prolific – سلسلة المقابلات

نورا بيتروا، هي مهندس تعلم الآلة و مستشار ذكاء اصطناعي في Prolific. تم تأسيس Prolific في عام 2014 و已经 تحصل على عملاء مثل جوجل و جامعة ستانفورد و جامعة أوكسفورد و كينجس كوليدج لندن و اللجنة الأوروبية، الذين يستخدمون شبكة المشاركين لاختبار المنتجات الجديدة و تدريب أنظمة الذكاء الاصطناعي في مجالات مثل تتبع العين و تحديد ما إذا كانت تطبيقات الذكاء الاصطناعي المواجهة للإنسان تعمل كما هو موضح في النية.
يمكنك مشاركة بعض المعلومات حول خلفيتك في Prolific و مسيرتك المهنية حتى الآن؟ ما هو ما جعلك مهتمًا بالذكاء الاصطناعي؟
دوري في Prolific يتم تقسيمه بين كونه مستشارًا بشأن حالات استخدام الذكاء الاصطناعي و الفرص، و كونه مهندسًا أكثر يداً في تعلم الآلة. بدأت مسيرتي المهنية في هندسة البرمجيات و انتقلت تدريجياً إلى تعلم الآلة. لقد قمت بإنفاق معظم السنوات الخمس الماضية على التركيز على حالات استخدام معالجة اللغة الطبيعية و المشاكل.
ما جعلهني مهتمًا بالذكاء الاصطناعي في البداية هو القدرة على التعلم من البيانات و الرابط إلى كيفية تعلمنا نحن كبشر و كيفية بنية أدمغتنا. أعتقد أن تعلم الآلة و العلوم العصبية يمكن أن تكمّل بعضها البعض و تساعد على تعزيز فهمنا لكيفية بناء أنظمة ذكاء اصطناعي قادرة على التنقل في العالم و إظهار الإبداع و إضافة قيمة للمجتمع.
ما هي بعض أكبر قضايا انحياز الذكاء الاصطناعي التي أنت على دراية بها؟
الانحياز هو متأصل في البيانات التي نغذيها إلى نماذج الذكاء الاصطناعي و إزالته بشكل كامل هو أمر صعب جداً. ومع ذلك، من الضروري أن نكون على دراية بالانحيازات الموجودة في البيانات و نجد طرقًا لتحديد الانحيازات الضارة قبل أن نثق النماذج بمهمات مهمة في المجتمع. أكبر المشاكل التي نواجهها هي نماذج الذكاء الاصطناعي التي تؤدي إلى تعزيز الصور النمطية الضارة و التحيزات النظامية و الظلم في المجتمع. يجب أن نكون على دراية بكيفية استخدام نماذج الذكاء الاصطناعي و التأثير الذي سيكون لها على مستخدميها و يجب أن نتأكد من أن تكون آمنة قبل الموافقة عليها للاستخدام الحساس.
تتضمن بعض المجالات البارزة التي أظهرت فيها نماذج الذكاء الاصطناعي انحيازات ضارة التمييز ضد المجموعات غير الممثلة في القبول المدرسي و الجامعي و الصور النمطية الجنسية السلبية التي تؤثر سلبًا على توظيف النساء. ليس ذلك فقط، بل تم العثور على خوارزمية العدالة الجنائية لتسمية المدعين السود بالخطر العالي بنسبة ضعف ما تم تسميته للمدعين البيض في الولايات المتحدة، في حين لا تزال تكنولوجيا التعرف على الوجه تعاني من معدلات خطأ عالية للأقليات بسبب نقص البيانات التدريبية الممثلة.
تغطي الأمثلة السابقة قسمًا صغيرًا من الانحيازات التي أظهرتها نماذج الذكاء الاصطناعي و يمكننا توقع مشاكل أكبر في المستقبل إذا لم نركز على تحديد الانحياز الآن. من المهم أن نتذكر أن نماذج الذكاء الاصطناعي تتعلم من البيانات التي تحتوي على هذه الانحيازات بسبب اتخاذ القرارات البشرية التي تتأثر بالانحيازات غير الخاضعة للرقابة و غير الواعية. في كثير من الحالات، قد لا يزيل اللجوء إلى قرار بشري الانحياز. في الواقع، تحديد الانحيازات سيشمل فهم كيفية وجودها في البيانات التي نستخدمها لتدريب النماذج و عزل العوامل التي تساهم في التنبؤات المحايدة و اتخاذ القرار بشكل جماعي حول ما نريد أن نستند إليه في اتخاذ القرارات المهمة. سيكون تطوير مجموعة من المعايير التي يمكننا من خلالها تقييم النماذج من حيث السلامة قبل استخدامها في الحالات الحساسة خطوة مهمة向 الأمام.
هل يمكنك مناقشة كيف يمكن للتدريب البشري في الحلقة (HITL) تحديد هذه القضايا؟
الهلوسات في نماذج الذكاء الاصطناعي مشكلة في حالات استخدام معينة من الذكاء الاصطناعي التوليدي، ولكن من المهم أن نلاحظ أنها ليست مشكلة في حد ذاتها. في بعض الاستخدامات الإبداعية للذكاء الاصطناعي التوليدي، الهلوسات مرحب بها و تساهم في استجابة أكثر إبداعًا و إثارة.
يمكن أن تكون الهلوسات مشكلة في الحالات التي يعتمد فيها على المعلومات الحقيقية. على سبيل المثال، في مجال الرعاية الصحية، حيث يكون اتخاذ القرارات القوية هو المفتاح، تقديم معلومات حقيقية موثوقة للمهنيين الصحيين أمر بالغ الأهمية.
يُشير HITL إلى الأنظمة التي تسمح للأشخاص بتقديم تعليقات مباشرة إلى نموذج للتنبؤات التي تقل عن مستوى معين من الثقة. في سياق الهلوسات، يمكن استخدام HITL لمساعدة النماذج على التعلم من مستوى اليقين الذي يجب أن يكونوا عليه للاستجابة في حالات استخدام مختلفة قبل إخراج استجابة. سيتغير هذه العتبات حسب حالة الاستخدام و سيكون تعليم النماذج الفرق في القوة المطلوبة للاستجابة على الأسئلة من حالات استخدام مختلفة خطوة مهمة نحو تحديد الهلوسات المشكلة.
كيف يمكن للعاملين في مجال الذكاء الاصطناعي، مثل معلمي البيانات، المساعدة في تقليل قضايا الانحياز المحتملة؟
يمكن للعاملين في مجال الذكاء الاصطناعي أن يساعدوا أولاً و أهم في تحديد الانحيازات الموجودة في البيانات. بمجرد تحديد الانحياز، يصبح من الأسهل إيجاد استراتيجيات للتخفيف. يمكن لمعلمي البيانات أيضًا المساعدة في إيجاد طرق لتقليل الانحياز. على سبيل المثال، لمهام معالجة اللغة الطبيعية، يمكنهم المساعدة من خلال تقديم طرق بديلة لصياغة مقاطع نصية مشكلة بحيث يتم تقليل الانحياز الموجود في اللغة.
كيف تتأكد من أن العاملين في مجال الذكاء الاصطناعي لا يغذون انحيازاتهم البشرية إلى نظام الذكاء الاصطناعي بشكل غير مقصود؟
من الصعب جدًا إزالة الانحيازات البشرية و قد يغذون العاملون في مجال الذكاء الاصطناعي انحيازاتهم إلى نماذج الذكاء الاصطناعي بشكل غير مقصود، لذلك من المهم تطوير عمليات توجيه العاملين إلى أفضل الممارسات.
تتضمن بعض الخطوات التي يمكن اتخاذها لتحديد الانحيازات البشرية إلى الحد الأدنى:
- تدريب شاملة للعاملين في مجال الذكاء الاصطناعي على الانحيازات غير الواعية و توفير أدوات لهم حول كيفية تحديد و إدارة انحيازاتهم الخاصة أثناء التسمية.
- قوائم تحقق تذكر العاملين في مجال الذكاء الاصطناعي بتحقق استجاباتهم قبل إرسالها.
- تشغيل تقييم لتحقق من مستوى الفهم الذي لديهم العاملون في مجال الذكاء الاصطناعي، حيث يتم عرض أمثلة على استجابات مختلفة عبر أنواع مختلفة من الانحيازات، و يُطلب منهم اختيار الاستجابة الأقل انحيازًا.
ما هي وجهات نظرك حول شفافية الذكاء الاصطناعي، هل يجب أن يكون المستخدمون قادرين على رؤية البيانات التي تم تدريب خوارزمية الذكاء الاصطناعي عليها؟
أعتقد أن هناك أوجه جيدة و سيئة للشفافية و لم يتم العثور على توازن جيد بعد. الشركات تحجب المعلومات المتعلقة بالبيانات التي تم استخدامها لتدريب نماذج الذكاء الاصطناعي بسبب خوفها من الإجراءات القانونية. عملت شركات أخرى على جعل نماذج الذكاء الاصطناعي متاحة للجمهور و نشرت جميع المعلومات المتعلقة بالبيانات التي تم استخدامها. الشفافية الكاملة تفتح الكثير من الفرص للاستغلال لضعف هذه النماذج. السرية الكاملة لا تساعد على بناء الثقة و إشراك المجتمع في بناء الذكاء الاصطناعي الآمن. سيكون الوسط الفضيل هو الذي يوفر شفافية كافية لجعلنا نثق في أن نماذج الذكاء الاصطناعي تم تدريبها على بيانات جيدة و ذات صلة و موافقتنا عليها.
أعتقد أنه من المهم أيضًا النظر في ما سيكون كافياً للمستخدمين من حيث القابلية للشرح. إذا أرادوا فهم سبب استجابة نموذج معين، فمن المحتمل أن لا تساعد ihnen تقديم البيانات الخام التي تم تدريب النموذج عليها في الإجابة على سؤالهم. لذلك، بناء أدوات جيدة للقابلية للشرح و القابلية للتفسير أمر مهم.
ما هي وجهات نظرك حول تنظيم الذكاء الاصطناعي، ما هو ما يفهمه المنظمون بشكل خاطئ، و ما هو ما يفهمونه بشكل صحيح؟
من المهم أن نبدأ بالقول إن هذه مشكلة صعبة جدًا و لم يجد أحد حلًا لها بعد. سيتطور المجتمع و الذكاء الاصطناعي معًا و سيتأثر بعضهما البعض بطرق صعبة التنبؤ. جزء من الاستراتيجية الفعالة لتحديد ممارسات تنظيمية قوية و مفيدة هو الانتباه إلى ما يحدث في مجال الذكاء الاصطناعي و كيف يستجيب الناس له و ما الآثار التي يخلفها على مختلف الصناعات.
أعتقد أن عائقًا كبيرًا للتنظيم الفعال للذكاء الاصطناعي هو نقص الفهم لما يمكن أن تفعله نماذج الذكاء الاصطناعي و كيفية عملها. هذا يجعله أكثر صعوبة في التنبؤ بدقة بالتأثيرات التي سيكون لها هذه النماذج على مختلف القطاعات و فئات المجتمع. منطقة أخرى ناقصة هي القيادة الفكرية حول كيفية محاذاة نماذج الذكاء الاصطناعي مع القيم البشرية و ما يبدو السلامة في مصطلحات أكثر ملموسية.
سعى المنظمون إلى التعاون مع الخبراء في مجال الذكاء الاصطناعي، و كانوا حذرين في عدم خنق الابتكار بقواعد صارمة حول الذكاء الاصطناعي، و بدأوا في النظر في عواقب الذكاء الاصطناعي على فقدان الوظائف، و هذه جميعها مجالات مهمة للتركيز.
من المهم أن نكون حذرين و ندرج أكبر عدد ممكن من الأشخاص في هذه القضية لنهجها بطرق ديمقراطية.
كيف يمكن لحلول Prolific مساعدة الشركات في تقليل انحياز الذكاء الاصطناعي و القضايا الأخرى التي ناقشناها؟
لم تكن عملية جمع البيانات لمشاريع الذكاء الاصطناعي دائمًا عملية مدروسة أو متعمدة. لقد رأينا في الماضي طرقًا مثل الحفاظ و الخارجية و غيرها من الطرق. ومع ذلك، كيف نتدرب على الذكاء الاصطناعي هو أمر بالغ الأهمية و سيتطلب النماذج التالية من الذكاء الاصطناعي أن يتم بناؤها على بيانات عالية الجودة و مقصودة و من أشخاص حقيقيين و من الأشخاص الذين لدينا اتصال مباشر معهم. هذا هو المكان الذي تقوم فيه Prolific بعملها.
مجالات أخرى، مثل المسح و البحث السوقي و البحث العلمي، تعلمت هذا منذ زمن. الجمهور الذين نستعين بهم يؤثر بشكل كبير على النتائج التي نحصل عليها. الذكاء الاصطناعي يبدأ في اللحاق بالركب الآن.
الوقت الآن هو الوقت لبدء الاهتمام باستخدام عينات أفضل و العمل مع مجموعات ممثلة أكثر لتدريب و تحسين الذكاء الاصطناعي. كلاهما حاسم لتحقيق نماذج آمنة و غير متحيزة و محاذاة.
يمكن لـ Prolific تقديم الأدوات المناسبة للشركات لإجراء تجارب الذكاء الاصطناعي بطريقة آمنة و لجمع البيانات من المشاركين حيث يتم التحقق من الانحياز و التخفيف منه في الطريق. يمكننا تقديم إرشادات حول أفضل الممارسات حول جمع البيانات و اختيار المشاركين و مكافأتهم و معاملتهم العادلة.
ما هي وجهات نظرك حول شفافية الذكاء الاصطناعي، هل يجب أن يكون المستخدمون قادرين على رؤية البيانات التي تم تدريب خوارزمية الذكاء الاصطناعي عليها؟
أعتقد أن هناك أوجه جيدة و سيئة للشفافية و لم يتم العثور على توازن جيد بعد. الشركات تحجب المعلومات المتعلقة بالبيانات التي تم استخدامها لتدريب نماذج الذكاء الاصطناعي بسبب خوفها من الإجراءات القانونية. عملت شركات أخرى على جعل نماذج الذكاء الاصطناعي متاحة للجمهور و نشرت جميع المعلومات المتعلقة بالبيانات التي تم استخدامها. الشفافية الكاملة تفتح الكثير من الفرص للاستغلال لضعف هذه النماذج. السرية الكاملة لا تساعد على بناء الثقة و إشراك المجتمع في بناء الذكاء الاصطناعي الآمن. سيكون الوسط الفضيل هو الذي يوفر شفافية كافية لجعلنا نثق في أن نماذج الذكاء الاصطناعي تم تدريبها على بيانات جيدة و ذات صلة و موافقتنا عليها.
أعتقد أنه من المهم أيضًا النظر في ما سيكون كافياً للمستخدمين من حيث القابلية للشرح. إذا أرادوا فهم سبب استجابة نموذج معين، فمن المحتمل أن لا تساعد ihnen تقديم البيانات الخام التي تم تدريب النموذج عليها في الإجابة على سؤالهم. لذلك، بناء أدوات جيدة للقابلية للشرح و القابلية للتفسير أمر مهم.
ما هي وجهات نظرك حول بحث محاذاة الذكاء الاصطناعي، و كيف يمكن للعاملين في مجال الذكاء الاصطناعي أن يلعبوا دورًا في ضمان محاذاة الذكاء الاصطناعي مع الأهداف و القيم و المبادئ الأخلاقية؟
هذا هو مجال بحث نشط و لا يوجد إجماع بعد على ما هي الاستراتيجيات التي يجب أن نستخدمها لمحاذاة نماذج الذكاء الاصطناعي مع القيم البشرية أو حتى أي مجموعة من القيم يجب أن نهدف إلى محاذاتها.
يُطلب من العاملين في مجال الذكاء الاصطناعي أن يمثلوا بشكل حقيقي تفضيلاتهم و يجيبوا على أسئلة حول تفضيلاتهم بدقة و أيضًا الالتزام بمبادئ حول السلامة و عدم الانحياز و عدم الإضرار و الإفادة.
بخصوص المحاذاة نحو الأهداف و المبادئ الأخلاقية و القيم، هناك العديد من النهج التي تبدو واعدة. أحد الأمثلة البارزة هو عمل معهد Meaning Alignment على التنميط الديمقراطي. هناك منشور رائع يقدم هذا الفكرة هنا.
شكرًا على المقابلة الرائعة و على مشاركة وجهات نظرك حول انحياز الذكاء الاصطناعي، و يُرحب بالقراء الذين يرغبون في التعلم أكثر بزيارة Prolific.












