مقابلات
أندرو غوردون، مستشار أبحاث أول، بROLIFIC – سلسلة المقابلات

يعتمد أندرو غوردون على خلفيته القوية في علم النفس وعلم الأعصاب لاكتشاف الأفكار كباحث. مع شهادة البكالوريوس في علم النفس ودرجة الماجستير في علم الأعصون النفسي ودرجة الدكتوراه في العلوم العصبية الإدراكية، يستخدم أندرو المبادئ العلمية لفهم دوافع المستهلكين وسلوكياتهم وعمليات اتخاذ القرار.
Prolific تم إنشاؤه من قبل الباحثين من أجل الباحثين، بهدف تقديم طريقة متفوقة للحصول على بيانات ومعلومات عالية الجودة من البشر لتحقيق أبحاث متقدمة. اليوم، يعتمد أكثر من 35,000 باحث من الأكاديمية والصناعة على Prolific AI لجمع بيانات بشرية نهائية وتعليقات. يُعرف المنصة بمتطوعيها الموثوقين والمتحمسين والمعاملين بالعدل، مع إطلاق دراسة جديدة كل ثلاث دقائق.
كيف تستخدم خلفيتك في العلوم العصبية الإدراكية لمساعدة الباحثين الذين يقومون بمشاريع تتضمن الذكاء الاصطناعي؟
نقطة البداية الجيدة هي تعريف ما يشمل علم الأعصون الإدراكي. في الأساس، يبحث علم الأعصون الإدراكي في الأسس البيولوجية للعمليات الإدراكية. إنه يجمع بين المبادئ من علم الأعصون وعلم النفس، وأحيانًا علوم الحاسوب، من بين أمور أخرى، مما يساعدنا على فهم كيف يتيح لنا دماغنا الوظائف العقلية المختلفة. في الأساس، أي شخص يمارس بحثًا في علم الأعصون الإدراكي يحتاج إلى امتلاك فهم قوي لمناهج البحث وفهم جيد لكيفية تفكير الناس وسلوكياتهم. هذه الجوانب هي أساسية ويمكن دمجها لتطوير وتشغيل أبحاث ذكاء اصطناعي عالية الجودة. ومع ذلك، هناك تحفظ واحد، وهو أن بحث الذكاء الاصطناعي هو مصطلح واسع؛ يمكن أن يشمل كل شيء من تدريب النماذج الأساسية وتعليمة البيانات إلى فهم كيفية تفاعل الناس مع أنظمة الذكاء الاصطناعي. تشغيل مشاريع بحثية مع الذكاء الاصطناعي لا يختلف عن تشغيل مشاريع بحثية خارج الذكاء الاصطناعي؛ لا تزال تحتاج إلى فهم جيد للأساليب وتصميم الدراسات لإنشاء أفضل البيانات، وتعديم العينات بشكل صحيح لتجنب التحيز، ثم استخدام هذه البيانات في تحليلات فعالة للإجابة على أي سؤال بحثي تتناوله.
يشدد Prolific على المعاملة الأخلاقية والتعويض العادل للمشاركين. هل يمكنك مشاركة رؤى حول التحديات والحلول في الحفاظ على هذه المعايير؟
تم تصميم نموذج التعويض لدينا لضمان أن المشاركين يتم تقديرهم وتكريمهم، ويشعرون بأنهم يلعبون دورًا مهمًا في آلة البحث (لأنهم كذلك). نعتقد أن معاملة المشاركين بالعدل وتقديم معدل دفع عادل، يحفزهم على الانخراط بشكل أعمق في البحث وبالتالي تقديم بيانات أفضل.
لسوء الحظ، لا تفرض معظم منصات العينة عبر الإنترنت هذه المبادئ من الدفع الأخلاقي والمعاملة. النتيجة هي مجموعة من المشاركين الذين يتم تحفيزهم ليس للانخراط في البحث، ولكن للتحرك بسرعة من خلاله بأسرع ما يمكن لزيادة إمكانيات كسبهم، مما يؤدي إلى بيانات منخفضة الجودة. الحفاظ على الموقف الذي نتبعه في Prolific يعتبر تحديًا؛ نحن في الأساس نكافح ضد التيار. الوضع الراهن في بحث الذكاء الاصطناعي وأشكال أخرى من البحث عبر الإنترنت لم يركز على معاملة المشاركين أو رفاهيتهم، بل على تحقيق أقصى قدر من البيانات التي يمكن جمعها بأقل تكلفة.
جعل المجتمع البحثي الأوسع يفهم لماذا اتخذنا هذا النهج والقيمة التي سيراها باستخدامنا، بدلاً من منصة منافسة، يعتبر تحديًا كبيرًا. تحدي آخر، من وجهة نظر логistique، يتضمن تخصيص الكثير من الوقت للرد على المخاوف أو الاستفسارات أو الشكاوى من المشاركين أو الباحثين بطريقة مناسبة و عادلة. نكرس الكثير من الوقت لذلك لأنها تبقي المستخدمين على كلا الجانبين – المشاركين والباحثين – سعداء، مما يشجعهم على الاستمرار في العودة إلى Prolific. ومع ذلك، نحن نعتمد أيضًا بشكل كبير على الباحثين الذين يستخدمون منصتنا للالتزام بمعاييرنا العالية من المعاملة والتعويض بمجرد أن يتم أخذ المشاركين إلى مهمة أو استبيان الباحث وبالتالي مغادرة نظام Prolific. ما يحدث خارج منصتنا يعتبر فعلا تحت سيطرة فريق البحث، لذلك نعتمد ليس فقط على المشاركين لإبلاغنا إذا كان هناك شيء خاطئ، ولكن أيضًا على باحثينا لرفع معايير أعلى ممكنة. نحن نحاول تقديم أكبر قدر ممكن من التوجيه لضمان حدوث ذلك.
بالنظر إلى نموذج عمل Prolific، ما هي أفكارك حول الدور الأساسي لتغذية الرأي البشري في تطوير الذكاء الاصطناعي، خاصة في مجالات مثل الكشف عن التحيز وتحسين العقل الاجتماعي؟
تغذية الرأي البشري في تطوير الذكاء الاصطناعي هي أمر بالغ الأهمية. بدون المشاركة البشرية، نخاطر بالمضي في نشر التحيزات، وتجاهل دقة التفاعلات الاجتماعية البشرية، وعدم معالجة بعض الاعتبارات الأخلاقية السلبية المرتبطة بالذكاء الاصطناعي. قد يمنع ذلك تقدمنا نحو إنشاء أنظمة ذكاء اصطناعي مسؤولة وفعالة وأخلاقية. فيما يتعلق بالكشف عن التحيز، فإن دمج تغذية الرأي البشري خلال عملية التطوير هو أمر بالغ الأهمية لأننا يجب أن نهدف إلى تطوير الذكاء الاصطناعي الذي يعكس نطاقًا واسعًا من الآراء والقيم، دون تفضيل واحد على الآخر. يمكن أن تؤثر خلفيات وثقافات مختلفة على كيفية تقييم المشاركين لموضوعات مثل سمية الكلام أو اللطف. للتعامل مع هذا، يمكن للمشاركة في أبحاث مشتركة بين Prolific وجامعة ميشيغان أن تبرز كيف يمكن لأصول المُعرّفين المختلفة التأثير بشكل كبير على كيفية تقييمهم لموضوعات مثل سمية الكلام أو اللطف. لتطوير الذكاء الاصطناعي، يمكن أن يساعد ذلك في منع هذه التحيزات من أن تصبح جزءًا من أنظمة الذكاء الاصطناعي قيد التطوير.
الحالة مع العقل الاجتماعي هي أساسًا نفس الشيء. يصعب على الذكاء الاصطناعي التعامل مع المهام التي تتطلب العقل الاجتماعي لأنها، بطبيعتها، ليست كائنًا اجتماعيًا، بينما نحن كبشر كذلك. الكشف عن السياق عند طرح سؤال، وفهم السخرية، أو التعرف على الإشارات العاطفية، يتطلب عقلًا اجتماعيًا مثل الإنسان الذي لا يمكن للذكاء الاصطناعي تعلمه بمفرده. نحن، كبشر، نتعلم اجتماعيًا، لذلك الطريقة الوحيدة لتعليم نظام الذكاء الاصطناعي هذه الأنواع من تقنيات العقل هي استخدام تغذية رأي بشري حقيقي لتدريب الذكاء الاصطناعي على تفسير واستجابة للاشارات الاجتماعية المختلفة.
في جوهر الأمر، تساعد تغذية الرأي البشري ليس فقط على تحديد المجالات التي تتفوق فيها أنظمة الذكاء الاصطناعي أو تتعثر، ولكنها أيضًا تمكن المطورين من إجراء التحسينات والتعديلات اللازمة للخوارزميات. مثال عملي على ذلك يظهر في كيفية عمل ChatGPT. عندما تسأل سؤالًا، قد يقدم ChatGPT إجابتين ويطلب منك ترتيب الأفضل. يتم اتخاذ هذا النهج لأن النموذج يتعلم دائمًا، والمطورون يفهمون أهمية الإدخال البشري لتحديد أفضل الإجابات، بدلاً من الاعتماد فقط على نموذج آخر.
لقد لعبت Prolific دورًا حاسمًا في ربط الباحثين بالمشاركين من أجل تدريب الذكاء الاصطناعي والبحث. هل يمكنك مشاركة بعض القصص الناجحة أو التقدمات المهمة في الذكاء الاصطناعي التي تمكنت من خلال منصتك؟
نظرًا للطبيعة التجارية لكثير من عملنا في الذكاء الاصطناعي، خاصة في الفضاءات غير الأكاديمية، فإن معظم المشاريع التي نحن مشاركين فيها تخضع لاتفاقيات سرية صارمة. هذا في الأساس لضمان سرية التقنيات أو الأساليب، وحمايتها من التكرار. ومع ذلك، هناك مشروع واحد يمكننا مناقشته، وهو شراكتنا مع Remesh، منصة استخبارات مدعومة بالذكاء الاصطناعي. عملنا مع OpenAI وRemesh على تطوير نظام يستخدم عينات ممثلة للسكان في الولايات المتحدة. في هذا المشروع، شارك الآلاف من الأفراد من عينة ممثلة في مناقشات حول سياسات الذكاء الاصطناعي من خلال نظام Remesh، مما أتاح تطوير سياسات ذكاء اصطناعي تعكس الإرادة العامة للشعب، بدلاً من ديموغرافية محددة، بفضل قدرة Prolific على تقديم عينة متنوعة مثل هذه.
متطلعًا إلى المستقبل، ما هو رؤيتك لمستقبل تطوير الذكاء الاصطناعي الأخلاقي، وكيف تخطط Prolific للمساهمة في تحقيق هذه الرؤية؟
أمالى لمستقبل الذكاء الاصطناعي وتطويره تتمثل في الاعتراف بأن الذكاء الاصطناعي لن يكون جيدًا إلا إذا كان البيانات التي يتم تدريبه عليها جيدة. لا يمكن التأكيد على أهمية جودة البيانات للنظم الذكاء الاصطناعي. تدريب نظام ذكاء اصطناعي على بيانات منخفضة الجودة يؤدي حتمًا إلى نظام ذكاء اصطناعي دون المستوى. الطريقة الوحيدة لضمان البيانات عالية الجودة هي ضمان تجنيد مجموعة متنوعة ومحفزة من المشاركين، راغبين في تقديم أفضل البيانات الممكنة. في Prolific، تهدف نهجنا ومبادئنا التوجيهية إلى تعزيز ذلك بالضبط. من خلال إنشاء مجموعة من المشاركين المحددة والمختبرة والموثوقة، نتوقع أن يستخدم الباحثون هذا الموارد لتطوير أنظمة ذكاء اصطناعي أكثر فاعلية وموثوقية وموثوقة في المستقبل.
ما هي بعض أكبر التحديات التي تواجهها في جمع بيانات تدريب الذكاء الاصطناعي البشرية عالية الجودة، وكيف تتفوق Prolific على هذه العوائق؟
التحدي الأكبر، من دون شك، هو جودة البيانات. لا تُعد البيانات السيئة مجرد عدم فائدة – بل يمكن أن تؤدي إلى نتائج ضارة، خاصة عند استخدام أنظمة الذكاء الاصطناعي في مجالات حرجة مثل الأسواق المالية أو العمليات العسكرية. هذا القلق يؤكد على المبدأ الأساسي “القمامة داخل، القمامة خارج”. إذا كانت بيانات الإدخال رديئة، فإن نظام الذكاء الاصطناعي الناتج سيكون بالضرورة منخفض الجودة أو الفائدة. تميل معظم العينات عبر الإنترنت إلى إنتاج بيانات أقل جودة مما هو مثالي لتطوير الذكاء الاصطناعي. هناك العديد من الأسباب لذلك، ولكن أحد العوامل الرئيسية التي تتعامل معها Prolific هي معاملة المشاركين عبر الإنترنت بشكل عام. غالبًا ما يتم اعتبار هؤلاء الأفراد غير مهمين، ويتلقون تعويضات منخفضة ومعاملة سيئة وقليلة الاحترام من الباحثين. من خلال الالتزام بمعاملات المشاركين بطرق أخلاقية، قامت Prolific بتهيئة مجموعة من المشاركين المتحمسين والمتفاعلين والمتأملين والصادقين والمنتبهين. لذلك، عندما يتم جمع البيانات من خلال Prolific، فإن جودتها تكون مضمونة، مما يدعم نماذج الذكاء الاصطناعي الموثوقة.
تحدي آخر تواجهه Prolific هو ضمان التنوع داخل العينة. بينما وسعت العينات عبر الإنترنت نطاقًا وتنوعًا كبيرين للأفراد الذين يمكننا إجراء البحث عليهم مقارنة بالأساليب التقليدية، فإنها غالبًا ما تميل إلى الأفراد من البلدان الغربية. هذه العينات لا تمثل بالكامل السكان العالميين. للتعامل مع هذا، لدى Prolific مشاركين من أكثر من 38 دولة حول العالم. كما نقدم لأبحاثنا أدوات لتحديد التكوين الديموغرافي الدقيق لعينتهم مسبقًا. بالإضافة إلى ذلك، نقدم عينة ممثلة من خلال قوالب مطابقة التعداد مثل العمر والجنس والعرق، أو حتى الانتماء السياسي. هذا يضمن أن الدراسات ومهام التعليمة أو المشاريع الأخرى تتلقى مجموعة متنوعة من المشاركين وبالتالي مجموعة واسعة من الأفكار.
شكرًا على المقابلة الرائعة، القراء الذين يرغبون في التعلم أكثر يجب أن يزوروا Prolific.












