בדל מחקר מציע שרובוטים משכנעים יותר כשהם מעמידים פנים שהם בני אדם - Unite.AI
צור קשר

רובוטיקה

מחקר מציע שרובוטים משכנעים יותר כשהם מעמידים פנים שהם בני אדם

mm

יצא לאור

 on

ההתקדמות בתחום הבינה המלאכותית יצרה בוטים ומכונות שיכולים לעבור כבני אדם אם הם מתקשרים עם אנשים אך ורק באמצעות מדיום דיגיטלי. לאחרונה, צוות של חוקרי מדעי המחשב חקר כיצד רובוטים/מכונות ובני אדם מתקשרים כאשר בני האדם מאמינים שהרובוטים הם גם אנושיים. כפי שדווח על ידי ScienceDaily, תוצאות המחקר מצאו שאנשים מוצאים רובוטים/צ'אטבוטים משכנעים יותר כשהם מאמינים שהבוטים הם אנושיים.

טלאל רהוואן, פרופסור חבר למדעי המחשב ב-NYU אבו דאבי, הוביל לאחרונה מחקר שבדק כיצד רובוטים ובני אדם מתקשרים זה עם זה. תוצאות הניסוי פורסמו ב מחשב המודיעין בדוח שנקרא Transparency-Efficiency Tradeoff in Human-Machine Cooperation. במהלך המחקר, נבדקי המבחן קיבלו הוראה לשחק משחק שיתוף פעולה עם בן זוג, והשותף עשוי להיות בן אדם או בוט.

המשחק היה טוויסט של דילמת האסיר הקלאסית, שבה המשתתפים צריכים להחליט אם לשתף פעולה או לא לבגוד באחר בכל סיבוב. בדילמה של אסיר, צד אחד עשוי לבחור לערוק ולבגוד בשותף שלו כדי להשיג תועלת במחיר לשחקן השני, ורק על ידי שיתוף פעולה יכולים שני הצדדים להבטיח לעצמם רווח.

החוקרים תמרנו את נבדקי הבדיקה שלהם על ידי מתן מידע נכון או שגוי לגבי זהות בן זוגם. לחלק מהמשתתפים נאמר שהם משחקים עם בוט, למרות שבן הזוג שלהם היה למעשה אנושי. משתתפים אחרים היו במצב הפוך. במהלך הניסוי, צוות המחקר הצליח לכמת אם אנשים התייחסו לשותפים בצורה שונה כאשר נאמר להם שהשותפים שלהם הם בוטים. החוקרים עקבו אחר המידה שבה קיימת דעה קדומה כלשהי נגד הבוטים, וכיצד עמדות אלו השפיעו על אינטראקציות עם בוטים שהזדהו.

תוצאות הניסוי הוכיחו שהבוטים היו יעילים יותר ביצירת שיתוף פעולה מהשותפים שלהם כאשר האדם האמין שהבוט הוא גם בן אדם. עם זאת, כאשר התברר שהבוט הוא בוט, רמות שיתוף הפעולה ירדו. Rahwan הסביר כי בעוד שמדענים ואתיקים רבים מסכימים שבינה מלאכותית צריכה להיות שקוף לגבי אופן קבלת ההחלטות, פחות ברור שהם צריכים להיות שקופים גם לגבי טבעם כאשר הם מתקשרים עם אחרים.

בשנה שעברה, גוגל דופלקס עשתה רעש כאשר הדגמת במה הראתה שהיא מסוגלת לבצע שיחות טלפון ולהזמין פגישות מטעם השימוש בה, וליצור דיבור דמוי אנושי כל כך מתוחכם שאנשים רבים היו טועים בו כאדם אמיתי אילו היו לא אמרו שהם מדברים עם בוט. מאז הופעת הבכורה של Google Duplex, רבים מאנשי בינה מלאכותית ורובוטים הביעו את דאגותיהם לגבי הטכנולוגיה, מה שגרם לגוגל לומר שהיא שהסוכן יזדהה בתור בוט בעתיד. כרגע, Google Duplex נמצא בשימוש בלבד בתפוסה מאוד מוגבלת. זה יקרה בקרוב ראה שימוש בניו זילנד, אבל רק כדי לבדוק את שעות הפעילות של עסקים. אתיקאים עדיין מודאגים לגבי המידה שבה ניתן לעשות שימוש לרעה בטכנולוגיה.

Rahawan טוען שהמחקר האחרון מוכיח שעלינו לשקול אילו עלויות אנחנו מוכנים לשלם בתמורה לשקיפות:

"האם זה מוסרי לפתח מערכת כזו? האם עלינו לאסור על בוטים לעבור כבני אדם, ולהכריח אותם להיות שקופים לגבי מי שהם? אם התשובה היא 'כן', אז הממצאים שלנו מדגישים את הצורך לקבוע סטנדרטים לעלות היעילות שאנו מוכנים לשלם בתמורה לשקיפות כזו".