رطم الثقة والخداع: دور الاعتذارات في التفاعلات بين الإنسان والروبوت - Unite.AI
اتصل بنا للحصول على مزيد من المعلومات

الروبوتات

الثقة والخداع: دور الاعتذارات في التفاعلات بين الإنسان والروبوت

تم النشر

 on

المصدر: Georgia Tech

خداع الروبوت هو مجال غير مدروس به أسئلة أكثر من الإجابات ، خاصة عندما يتعلق الأمر بإعادة بناء الثقة في الأنظمة الروبوتية بعد أن يتم اكتشافها وهي تكذب. يحاول اثنان من الطلاب الباحثين في Georgia Tech ، هما Kantwon Rogers و Reiden Webber ، العثور على إجابات لهذه المشكلة من خلال التحقيق في كيفية تأثير خداع الروبوت المتعمد على الثقة وفعالية الاعتذارات في إصلاح الثقة.

روجرز ، دكتوراه. طالب في كلية الحاسبات يوضح:

"لقد أظهرت جميع أعمالنا السابقة أنه عندما يكتشف الناس أن الروبوتات كذبت عليهم - حتى لو كانت الكذبة تهدف إلى إفادةهم - فإنهم يفقدون الثقة في النظام."

يهدف الباحثون إلى تحديد ما إذا كانت أنواع الاعتذارات المختلفة أكثر فاعلية في استعادة الثقة في سياق التفاعل بين الإنسان والروبوت.

تجربة القيادة بمساعدة الذكاء الاصطناعي وانعكاساتها

صمم الثنائي تجربة محاكاة القيادة لدراسة التفاعل بين الإنسان والذكاء الاصطناعي في موقف شديد الخطورة وحساس للوقت. قاموا بتجنيد 341 مشاركًا عبر الإنترنت و 20 مشاركًا شخصيًا. تضمنت المحاكاة سيناريو القيادة بمساعدة الذكاء الاصطناعي حيث قدمت منظمة العفو الدولية معلومات خاطئة حول وجود الشرطة على الطريق إلى المستشفى. بعد المحاكاة ، قدم الذكاء الاصطناعي واحدًا من خمسة ردود نصية مختلفة ، بما في ذلك أنواع مختلفة من الاعتذارات وعدم الاعتذار.

النتائج كشفت أن المشاركين كانوا أكثر عرضة بمقدار 3.5 مرة لعدم الإسراع عندما نصحهم مساعد آلي ، مما يشير إلى موقف مفرط في الثقة تجاه الذكاء الاصطناعي. لم يعيد أي من أنواع الاعتذار الثقة تمامًا ، لكن الاعتذار البسيط دون الاعتراف بالكذب ("أنا آسف") تفوق على الردود الأخرى. هذه النتيجة إشكالية ، لأنها تستغل الفكرة المسبقة القائلة بأن أي معلومات خاطئة يقدمها الروبوت هي خطأ في النظام وليست كذبة مقصودة.

يشير Reiden Webber إلى:

"أحد الوجبات الجاهزة الرئيسية هو أنه لكي يفهم الناس أن الروبوت قد خدعهم ، يجب إخبارهم بذلك صراحة."

عندما علم المشاركون بالخداع في الاعتذار ، كانت أفضل استراتيجية لإصلاح الثقة هي أن يشرح الروبوت سبب كذبه.

المضي قدمًا: الآثار المترتبة على المستخدمين والمصممين وواضعي السياسات

يحمل هذا البحث آثارًا على متوسط ​​مستخدمي التكنولوجيا ومصممي أنظمة الذكاء الاصطناعي وواضعي السياسات. من الأهمية بمكان أن يفهم الناس أن الخداع الآلي حقيقي ومحتمل دائمًا. يجب على المصممين والتقنيين النظر في تداعيات إنشاء أنظمة ذكاء اصطناعي قادرة على الخداع. يجب على صانعي السياسات أن يأخذوا زمام المبادرة في استنباط التشريعات التي توازن بين الابتكار وحماية الجمهور.

هدف Kantwon Rogers هو إنشاء نظام آلي يمكنه تعلم متى تكذب ومتى لا تكذب عند العمل مع فرق بشرية ، وكذلك متى وكيف تعتذر أثناء تفاعلات طويلة المدى ومتكررة بين الإنسان والذكاء الاصطناعي لتعزيز أداء الفريق.

وشدد على أهمية فهم وتنظيم خداع الروبوت والذكاء الاصطناعي قائلاً:

"الهدف من عملي هو أن أكون استباقيًا للغاية وأن أبلغ الحاجة إلى تنظيم خداع الروبوت والذكاء الاصطناعي. لكن لا يمكننا فعل ذلك إذا لم نفهم المشكلة ".

يساهم هذا البحث في المعرفة الحيوية في مجال خداع الذكاء الاصطناعي ويقدم رؤى قيمة لمصممي التكنولوجيا وواضعي السياسات الذين ينشئون وينظمون تقنية الذكاء الاصطناعي القادرة على الخداع أو ربما تعلم الخداع من تلقاء نفسها.

أليكس ماكفارلاند صحفي وكاتب في مجال الذكاء الاصطناعي يستكشف أحدث التطورات في مجال الذكاء الاصطناعي. لقد تعاون مع العديد من الشركات الناشئة والمنشورات في مجال الذكاء الاصطناعي في جميع أنحاء العالم.