Robotyka
Zaufanie i oszustwo: rola przeprosin w interakcjach człowiek-robot

Oszustwo robota jest niedostatecznie zbadanym polem z więcej pytaniami niż odpowiedziami, szczególnie jeśli chodzi o odbudowanie zaufania w systemach robotycznych po tym, jak zostały przyłapane na kłamstwie. Dwóch studentów-badaczy z Georgia Tech, Kantwon Rogers i Reiden Webber, próbuje znaleźć odpowiedzi na ten problem, badając, jak zamierzone oszustwo robota wpływa na zaufanie i skuteczność przeprosin w naprawie zaufania.
Rogers, student doktorancki w College of Computing, wyjaśnia:
“Wszystkie nasze poprzednie prace pokazały, że gdy ludzie dowiadują się, że roboty kłamały im – nawet jeśli kłamstwo było zamierzone, aby im pomóc – tracą zaufanie do systemu.”
Badacze mają na celu ustalenie, czy różne typy przeprosin są bardziej skuteczne w przywracaniu zaufania w kontekście interakcji człowiek-robot.
Eksperyment z jazdy z asystentem AI i jego implikacje
Duo zaprojektowało symulację jazdy, aby zbadać interakcję człowiek-AI w sytuacji o wysokich stawkach i czynnikiem czasu. Zwerbowali 341 uczestników online i 20 uczestników stacjonarnych. Symulacja obejmowała scenariusz jazdy z asystentem AI, który dostarczył fałszywe informacje o obecności policji na trasie do szpitala. Po symulacji AI dostarczył jeden z pięciu różnych tekstowych odpowiedzi, w tym różne typy przeprosin i nieprzeprosin.
Wyniki wyników ujawniły, że uczestnicy byli 3,5 razy bardziej skłonni nie przekraczać prędkości, gdy zostali poinformowani przez asystenta robota, co wskazuje na nadmierną ufność wobec AI. Żaden z typów przeprosin nie całkowicie przywrócił zaufania, ale proste przeprosiny bez przyznania się do kłamstwa (“Przepraszam”) przewyższyły inne odpowiedzi. To odkrycie jest problematyczne, ponieważ wykorzystuje wcześniej przyjęte założenie, że każda fałszywa informacja podana przez robota jest błędem systemu, a nie zamierznym kłamstwem.
Reiden Webber zwraca uwagę:
“Jednym z kluczowych wniosków jest to, że aby ludzie zrozumieli, że robot oszukał ich, muszą zostać wyraźnie poinformowani o tym.”
Gdy uczestnicy zostali poinformowani o oszustwie w przeprosinach, najlepszą strategią naprawy zaufania było wyjaśnienie przez robota, dlaczego skłamał.
Przechodząc do przodu: implikacje dla użytkowników, projektantów i decydentów
To badanie ma implikacje dla przeciętnych użytkowników technologii, projektantów systemów AI i decydentów. Jest kluczowe, aby ludzie zrozumieli, że oszustwo robota jest rzeczywiste i zawsze możliwe. Projektanci i technolodzy muszą uwzględnić konsekwencje tworzenia systemów AI zdolnych do oszustwa. Decydenci powinni zająć się tworzeniem legislacji, która równoważy innowacje i ochronę publiczną.
Celem Kantwona Rogersa jest stworzenie systemu robota, który może nauczyć się, kiedy kłamać, a kiedy nie, przy pracy z zespołami ludzkimi, a także kiedy i jak przeprosić podczas długoterminowych, powtarzanych interakcji człowiek-AI, aby poprawić wydajność zespołu.
Podkreśla on wagę zrozumienia i regulacji oszustwa robota i AI, mówiąc:
“Celem mojej pracy jest być bardzo proaktywnym i informować o potrzebie regulacji oszustwa robota i AI. Ale nie możemy tego zrobić, jeśli nie zrozumiemy problemu.”
To badanie wnosi istotną wiedzę do dziedziny oszustwa AI i oferuje cenne spostrzeżenia dla projektantów technologii i decydentów, którzy tworzą i regulują technologię AI zdolną do oszustwa lub potencjalnie uczącą się oszukiwać samodzielnie.












