Vernetzen Sie sich mit uns

Robotik

Vertrauen und Täuschung: Die Rolle von Entschuldigungen bei Mensch-Roboter-Interaktionen

mm
Quelle: Georgia Tech

Die Täuschung von Robotern ist ein wenig erforschtes Feld mit mehr Fragen als Antworten, insbesondere wenn es darum geht, das Vertrauen in Robotersysteme wiederherzustellen, nachdem sie beim Lügen erwischt wurden. Zwei studentische Forscher an der Georgia Tech, Kantwon Rogers und Reiden Webber, versuchen, Antworten auf dieses Problem zu finden, indem sie untersuchen, wie sich absichtliche Robotertäuschung auf das Vertrauen auswirkt und wie wirksam Entschuldigungen das Vertrauen wiederherstellen.

Rogers, ein Ph.D. Student am College of Computing, erklärt:

„Alle unsere bisherigen Arbeiten haben gezeigt, dass Menschen das Vertrauen in das System verlieren, wenn sie herausfinden, dass Roboter sie angelogen haben – selbst wenn die Lüge ihnen zugute kommen sollte.“

Die Forscher wollen herausfinden, ob verschiedene Arten von Entschuldigungen das Vertrauen im Kontext der Mensch-Roboter-Interaktion effektiver wiederherstellen können.

Das KI-unterstützte Fahrexperiment und seine Auswirkungen

Das Duo entwarf ein Fahrsimulationsexperiment, um die Interaktion zwischen Mensch und KI in einer zeitkritischen Situation mit hohem Risiko zu untersuchen. Sie rekrutierten 341 Online-Teilnehmer und 20 persönliche Teilnehmer. Bei der Simulation handelte es sich um ein KI-gestütztes Fahrszenario, bei dem die KI falsche Informationen über die Anwesenheit der Polizei auf dem Weg zu einem Krankenhaus lieferte. Nach der Simulation lieferte die KI eine von fünf verschiedenen textbasierten Antworten, darunter verschiedene Arten von Entschuldigungen und Nicht-Entschuldigungen.

Die Ergebnisse ergab, dass die Teilnehmer 3.5-mal häufiger nicht zu schnell fuhren, wenn sie von einem Roboterassistenten darauf hingewiesen wurden. Dies deutet auf eine übermäßig vertrauensvolle Haltung gegenüber KI hin. Keine der Entschuldigungsarten konnte das Vertrauen vollständig wiederherstellen, doch die einfache Entschuldigung ohne Eingeständnis der Lüge („Es tut mir leid“) schnitt besser ab als die anderen Antworten. Dieses Ergebnis ist problematisch, da es die vorgefasste Meinung ausnutzt, dass jede falsche Information eines Roboters eher ein Systemfehler als eine absichtliche Lüge sei.

Reiden Webber weist darauf hin:

„Eine wichtige Erkenntnis ist, dass Menschen dies ausdrücklich sagen müssen, damit sie verstehen, dass ein Roboter sie getäuscht hat.“

Als die Teilnehmer auf die Täuschung in der Entschuldigung aufmerksam gemacht wurden, bestand die beste Strategie zur Wiederherstellung des Vertrauens darin, dass der Roboter erklärte, warum er gelogen hatte.

Vorwärts gehen: Implikationen für Benutzer, Designer und politische Entscheidungsträger

Diese Forschung hat Auswirkungen auf durchschnittliche Technologienutzer, KI-Systemdesigner und politische Entscheidungsträger. Für die Menschen ist es von entscheidender Bedeutung zu verstehen, dass eine Täuschung durch Roboter real und immer möglich ist. Designer und Technologen müssen die Auswirkungen der Schaffung von KI-Systemen berücksichtigen, die zur Täuschung fähig sind. Die politischen Entscheidungsträger sollten die Führung bei der Ausarbeitung von Gesetzen übernehmen, die Innovation und Schutz für die Öffentlichkeit in Einklang bringen.

Das Ziel von Kantwon Rogers besteht darin, ein Robotersystem zu entwickeln, das lernt, wann es bei der Arbeit mit menschlichen Teams lügen darf und wann nicht. Außerdem soll es lernen, wann und wie es sich bei langfristigen, wiederholten Mensch-KI-Interaktionen entschuldigen muss, um die Teamleistung zu verbessern.

Er betont, wie wichtig es ist, die Täuschung durch Roboter und KI zu verstehen und zu regulieren, und sagt:

„Das Ziel meiner Arbeit ist es, proaktiv zu sein und auf die Notwendigkeit hinzuweisen, Roboter- und KI-Täuschungen zu regulieren. Aber das können wir nicht, wenn wir das Problem nicht verstehen.“

Diese Forschung trägt wichtiges Wissen zum Bereich der KI-Täuschung bei und bietet wertvolle Erkenntnisse für Technologiedesigner und politische Entscheidungsträger, die KI-Technologie entwickeln und regulieren, die in der Lage ist, zu täuschen oder möglicherweise selbst zu täuschen.

Alex McFarland ist ein KI-Journalist und Autor, der sich mit den neuesten Entwicklungen in der künstlichen Intelligenz beschäftigt. Er hat mit zahlreichen KI-Startups und Publikationen weltweit zusammengearbeitet.