الأخلاقيات
الذكاء الاصطناعي والبحوث الاستقصائية: تعاون مفاجئ

الشخصيات الاصطناعية وأنماط التصويت
في تجربة واحدة، أنشأ الباحثون شخصيات اصطناعية من خلال تعيين سمات محددة للذكاء الاصطناعي، مثل العرق والعمر والايديولوجيا والدين. ثم اختبروا ما إذا كانت هذه الشخصيات الاصطناعية ستتصويت بنفس الطريقة التي يتصويت بها البشر في الانتخابات الرئاسية الأمريكية لعام 2012 و 2016 و 2020. باستخدام دراسات الانتخابات الوطنية الأمريكية (ANES) كقاعدة بيانات بشرية مقارنة، اكتشفوا وجود تطابق عالي بين أنماط التصويت للذكاء الاصطناعي والبشر.
ديفيد وينجيت، أستاذ علوم الحاسوب في جامعة بريغام يونغ وشارك في كتابة الدراسة، أعرب عن دهشته من النتائج:
“من المثير للاهتمام بشكل خاص لأن النموذج لم يتم تدريبه على العلوم السياسية – بل تم تدريبه على مائة مليار كلمة من النص تم تحميلها من الإنترنت. لكن المعلومات المتسقة التي حصلنا عليها كانت متصلة بعمق بكيفية تصويت الناس في الواقع”.
استطلاعات نمط المقابلة والتطبيقات المستقبلية
في تجربة أخرى، قام الباحثون بتعديل الشخصيات الاصطناعية لتقديم استجابات من قائمة خيارات في استطلاع على نمط المقابلة، مرة أخرى باستخدام ANES كعينة بشرية. وجدوا وجود تشابه عالي بين الأنماط الدقيقة في الاستجابات البشرية والذكاء الاصطناعي.
تُقدم نتائج الدراسة فرصًا مثيرة للباحثين ومتخصصي التسويق والاستطلاعات. يمكن استخدام الذكاء الاصطناعي لصياغة أسئلة استطلاع أفضل، وتنقيحها لجعلها أكثر سهولة وتمثيلا، وحتى محاكاة السكان الذين يصعب الوصول إليهم. يمكن استخدامه أيضًا لاختبار الاستطلاعات والشعارات والعناوين قبل إجراء مجموعات التركيز.
أستاذ العلوم السياسية في جامعة بريغام يونغ إيثان بوسبي قال:
“إنه لا يُستبدل بالبشر، ولكنه يساعدنا على دراسة الناس بفعالية أكبر. إنه حول تعزيز قدراتنا بدلاً من استبدالها. يمكنه مساعدتنا على أن نكون أكثر كفاءة في عملنا مع الناس من خلال السماح لنا باختبار استطلاعاتنا ورسائلنا قبل ذلك”.
الأسئلة الأخلاقية والبحوث المستقبلية
مع استمرار نمو نماذج اللغة الكبيرة، تطرح العديد من الأسئلة حول تطبيقاتها وآثارها. أي السكان سوف يستفيدون من هذه التكنولوجيا، وأيهم سيتم التأثير السلبي عليه؟ كيف يمكننا حماية أنفسنا من المخادعين والمحتالين الذين قد يسيئون استخدام الذكاء الاصطناعي لإنشاء عمليات احتيال أكثر تطوراً؟
في حين أن العديد من هذه الأسئلة لا تزال بدون إجابة، توفر الدراسة مجموعة من المعايير التي يمكن للباحثين المستقبلين استخدامها لتحديد دقة نماذج الذكاء الاصطناعي لمواضيع مختلفة.
وينجيت يعترف بالفوائد والنتائج السلبية المحتملة لتطوير الذكاء الاصطناعي:
“سنرى فوائد إيجابية لأنها ستفتح قدرات جديدة. سنرى أيضًا أشياء سلبية تحدث لأن نماذج الكمبيوتر أحيانًا غير دقيقة وأحيانًا متحيزة. سوف يستمر في تغيير المجتمع”.
بوسبي يؤكد على أن استطلاع الشخصيات الاصطناعية لا ينبغي أن يُستخدم كبديل لاستطلاع الناس الحقيقيين، ويدعو الأكاديميين والخبراء إلى التعاون في تحديد الحدود الأخلاقية لاستطلاع الذكاء الاصطناعي في البحوث الاجتماعية.












