الروبوتات
دراسة تشير إلى أن الروبوتات أكثر اقناعا عندما تتصنع كأنها بشر

أدت التطورات في الذكاء الاصطناعي إلى إنشاء روبوتات وألات يمكن أن تظهر كبشر إذا تفاعلت مع الناس حصريا من خلال وسيط رقمي. مؤخرا، قام فريق من باحثي علوم الحاسوب بدراسة كيفية تفاعل الروبوتات / الألات مع البشر عندما يعتقد البشر أن الروبوتات هي أيضا بشر. على النحو المذكور في ScienceDaily، أظهرت نتائج الدراسة أن الناس يجدون الروبوتات / المحادثات أكثر اقناعا عندما يعتقدون أن البوتات هي بشر.
تالال رحوان، أستاذ مساعد في علوم الحاسوب في جامعة نيويورك أبوظبي، قاد مؤخرا دراسة بحثت في كيفية تفاعل الروبوتات والبشر مع بعضهم البعض. تم نشر نتائج التجربة في Nature Machine Intelligence في تقرير يسمى Transparency-Efficiency Tradeoff in Human-Machine Cooperation. خلال الدراسة، تم توجيه المشاركين في الاختبار للعب لعبة تعاونية مع شريك، ويمكن أن يكون الشريك إما بشريا أو بوتا.
اللعبة كانت تحولا على اللعبة الكلاسيكية للخلاص من السجن، حيث يجب على المشاركين اتخاذ قرار بشأن是否 التعاون أو الخيانة للطرف الآخر في كل جولة. في معضلة السجن، يمكن لأحد الأطراف اختيار الخيانة وغدر شريكه لتحقيق فائدة على حساب اللاعب الآخر، ويمكن فقط من خلال التعاون أن يضمن كلا الجانبين مكاسبهم.
قام الباحثون بتحريف مواضيع الاختبار من خلال تقديمهم معلومات صحيحة أو خاطئة حول هوية شركائهم. تم إخبار بعض المشاركين بأنهم يلعبون مع بوت، على الرغم من أن شريكهم كان في الواقع بشريا. كانت بعض المشاركين في الوضع العكسي. على مدار التجربة، تمكن الفريق البحثي من量ification إذا تعامل الناس مع الشركاء بشكل مختلف عندما أخبروا أن شركائهم بوتات. قام الباحثون بتتبع درجة وجود تحيز ضد البوتات، وكيف أثرت هذه المواقف على التفاعلات مع البوتات التي تعرف نفسها.
أظهرت نتائج التجربة أن البوتات كانت أكثر فعالية في إحداث تعاون من شركائهم عندما يعتقد الإنسان أن البوت هو أيضا إنسان. ومع ذلك، عندما تم الكشف عن أن البوت كان بوتا، انخفضت مستويات التعاون. أوضح رحوان أن بينما يتفق العديد من العلماء والأخلاقيين على أن الذكاء الاصطناعي يجب أن يكون شفافا بشأن كيفية اتخاذ القرارات، فإنها أقل وضوحا بشأن أنهم يجب أن يكونوا شفافين بشأن طبيعتهم عند التواصل مع الآخرين.
في العام الماضي، أحدثت Google Duplex ضجة عندما أظهرت تجربة على المسرح أنها قادرة على إجراء مكالمات هاتفية و حجز مواعيد بالنيابة عن مستخدميها، وإنشاء كلام يشبه الإنسان بدرجة لدرجة أن العديد من الناس كانوا سيخطئون في اعتبارهم شخصا حقيقيا لو لم يخبروا أنهم يتحدثون مع بوتا. منذ ظهور Google Duplex، أعرب العديد من أخلاقيي الذكاء الاصطناعي والروبوتات عن مخاوفهم بشأن التكنولوجيا، مما دفع Google إلى القول إنها ستجعل الوكيل يعرف نفسه كبوت في المستقبل. حاليا، يتم استخدام Google Duplex في قدرة محدودة جدا. سوف يتم استخدامها قريبا في نيوزيلندا، ولكن فقط للتحقق من ساعات عمل الأعمال. لا يزال أخلاقيون قلقون من درجة التي يمكن أن تسيء استخدام التكنولوجيا.
يجادل رحوان أن الدراسة الحديثة تظهر أننا يجب أن ننظر في ما التكاليف التي نحصل عليها في مقابل الشفافية:
“هل من الأخلاقي تطوير نظام مثل هذا؟ هل يجب أن نمنع البوتات من التمثيل كبشر، وإجبارهم على أن يكونوا شفافين بشأن من هم؟ إذا كان الجواب ‘نعم’، فإن نتائجنا تبرز الحاجة إلى وضع معايير لتكلفة الكفاءة التي نحصل عليها في مقابل هذه الشفافية.”










