اتصل بنا للحصول على مزيد من المعلومات

تشير الدراسة إلى أن الروبوتات تكون أكثر إقناعًا عندما تتظاهر بأنها بشر

الروبوتات

تشير الدراسة إلى أن الروبوتات تكون أكثر إقناعًا عندما تتظاهر بأنها بشر

mm

أدى التقدم في الذكاء الاصطناعي إلى إنشاء روبوتات وآلات يمكن أن تمر كبشر إذا تفاعلت مع الأشخاص حصريًا من خلال وسيط رقمي. في الآونة الأخيرة ، درس فريق من الباحثين في علوم الكمبيوتر كيفية تفاعل الروبوتات / الآلات والبشر عندما يعتقد البشر أن الروبوتات بشر أيضًا. كما ذكرت ScienceDaily، وجدت نتائج الدراسة أن الناس يجدون الروبوتات / روبوتات الدردشة أكثر إقناعًا عندما يعتقدون أن الروبوتات بشر.

طلال رهوان ، الأستاذ المشارك في علوم الكمبيوتر بجامعة نيويورك أبوظبي ، قاد مؤخرًا دراسة بحثت في كيفية تفاعل الروبوتات والبشر مع بعضهم البعض. تم نشر نتائج التجربة في المخابرات آلة الطبيعة في تقرير بعنوان مقايضة الشفافية والكفاءة في التعاون بين الإنسان والآلة. خلال فترة الدراسة ، تم توجيه الأشخاص الخاضعين للاختبار للعب لعبة تعاونية مع شريك ، وقد يكون الشريك إما إنسانًا أو روبوتًا.

كانت اللعبة بمثابة تطور في معضلة السجين الكلاسيكية ، حيث يجب على المشاركين أن يقرروا ما إذا كانوا سيتعاونون أم لا أو أن يخونوا الآخر في كل جولة. في معضلة السجين ، قد يختار أحد الطرفين الانشقاق وخيانة شريكه لتحقيق منفعة على حساب اللاعب الآخر ، وفقط من خلال التعاون يمكن للطرفين ضمان مكاسبهما.

تلاعب الباحثون بموضوعاتهم من خلال تزويدهم إما بمعلومات صحيحة أو غير صحيحة عن هوية شريكهم. تم إخبار بعض المشاركين أنهم كانوا يلعبون مع روبوت ، على الرغم من أن شريكهم كان إنسانًا بالفعل. كان المشاركون الآخرون في الوضع العكسي. على مدار التجربة ، تمكن فريق البحث من تحديد ما إذا كان الأشخاص يعاملون الشركاء بشكل مختلف عندما تم إخبارهم بأن شركائهم روبوتات. تتبع الباحثون درجة وجود أي تحيز ضد الروبوتات ، وكيف أثرت هذه المواقف على التفاعلات مع الروبوتات التي عرّفت نفسها.

أظهرت نتائج التجربة أن الروبوتات كانت أكثر فاعلية في خلق تعاون من شركائها عندما اعتقد الإنسان أن الروبوت كان أيضًا إنسانًا. ومع ذلك ، عندما تم الكشف عن أن الروبوت كان روبوتًا ، انخفضت مستويات التعاون. أوضح رهوان أنه في حين يتفق العديد من العلماء وعلماء الأخلاق على أن الذكاء الاصطناعي يجب أن يكون شفافًا فيما يتعلق بكيفية اتخاذ القرارات ، فمن غير الواضح أنه يجب عليهم أيضًا أن يكونوا شفافين بشأن طبيعتهم عند التواصل مع الآخرين.

في العام الماضي ، أحدثت Google Duplex نجاحًا كبيرًا عندما أظهر العرض التوضيحي المسرحي أنه قادر على إجراء مكالمات هاتفية وحجز المواعيد نيابةً عن استخدامه ، مما أدى إلى توليد كلام يشبه الإنسان متطورًا لدرجة أن الكثير من الناس قد يخطئون في أنه شخص حقيقي لو كانوا لم يتم إخبارهم بأنهم كانوا يتحدثون إلى روبوت. منذ ظهور Google Duplex لأول مرة ، أعرب العديد من خبراء أخلاقيات الذكاء الاصطناعي والروبوتات عن مخاوفهم بشأن التكنولوجيا ، مما دفع Google للقول إنها سيطلب من الوكيل تعريف نفسه كروبوت في المستقبل. حاليًا ، يتم استخدام Google Duplex فقط بقدرة محدودة للغاية. قريبا انظر الاستخدام في نيوزيلندا، ولكن فقط للتحقق من ساعات عمل الشركات. لا يزال علماء الأخلاق قلقين بشأن درجة إساءة استخدام التكنولوجيا.

يجادل رهوان أن الدراسة الأخيرة توضح أنه يجب علينا النظر في التكاليف التي نرغب في دفعها مقابل الشفافية:

هل من الأخلاقي تطوير مثل هذا النظام؟ هل يجب علينا منع الروبوتات من التظاهر بأنها بشر، وإجبارها على الشفافية بشأن هويتها؟ إذا كانت الإجابة "نعم"، فإن نتائجنا تُبرز ضرورة وضع معايير لتكلفة الكفاءة التي نرغب في دفعها مقابل هذه الشفافية.

Blogger والمبرمج مع تخصصات في تعلم آلة و تعلم عميق المواضيع. يأمل دانيال في مساعدة الآخرين على استخدام قوة الذكاء الاصطناعي من أجل الصالح الاجتماعي.