Robotik
Studie legt nahe, dass Roboter überzeugender sind, wenn sie vorgeben, Menschen zu sein

Fortschritte in der künstlichen Intelligenz haben Bots und Maschinen hervorgebracht, die potenziell als Menschen durchgehen können, wenn sie ausschließlich über ein digitales Medium mit Menschen interagieren. Kürzlich hat ein Team von Informatikforschern untersucht, wie Roboter/Maschinen und Menschen interagieren, wenn die Menschen glauben, dass die Roboter auch Menschen sind. Wie von ScienceDaily berichtetDie Ergebnisse der Studie ergaben, dass Menschen Roboter/Chatbots überzeugender finden, wenn sie glauben, dass es sich bei den Bots um Menschen handelt.
Talal Rahwan, außerordentlicher Professor für Informatik an der NYU Abu Dhabi, hat kürzlich eine Studie geleitet, die untersuchte, wie Roboter und Menschen miteinander interagieren. Die Ergebnisse des Experiments wurden in veröffentlicht Nature Machine Intelligence in einem Bericht mit dem Titel Transparency-Efficiency Tradeoff in Human-Machine Cooperation. Im Verlauf der Studie wurden die Testpersonen angewiesen, ein kooperatives Spiel mit einem Partner zu spielen, wobei der Partner entweder ein Mensch oder ein Bot sein konnte.
Das Spiel war eine Variante des klassischen Gefangenendilemmas, bei dem die Teilnehmer in jeder Runde entscheiden müssen, ob sie kooperieren oder den anderen verraten. Im Gefangenendilemma kann sich eine Seite dafür entscheiden, ihren Partner zu verlassen und zu verraten, um auf Kosten des anderen Spielers einen Vorteil zu erzielen, und nur durch Kooperation können sich beide Seiten einen Gewinn sichern.
Die Forscher manipulierten ihre Probanden, indem sie ihnen entweder richtige oder falsche Informationen über die Identität ihres Partners gaben. Einigen Teilnehmern wurde gesagt, dass sie mit einem Bot spielten, obwohl ihr Partner eigentlich ein Mensch war. Andere Teilnehmer befanden sich in der umgekehrten Situation. Im Verlauf des Experiments konnte das Forschungsteam quantifizieren, ob Menschen ihre Partner unterschiedlich behandelten, wenn ihnen gesagt wurde, dass ihre Partner Bots seien. Die Forscher untersuchten, inwieweit Vorurteile gegenüber den Bots bestanden und wie sich diese Einstellungen auf die Interaktion mit Bots auswirkten, die sich selbst identifizierten.
Die Ergebnisse des Experiments zeigten, dass Bots die Zusammenarbeit ihrer Partner effektiver herbeiführen konnten, wenn der Mensch glaubte, dass der Bot auch ein Mensch sei. Als sich jedoch herausstellte, dass es sich bei dem Bot um einen Bot handelte, sank die Zusammenarbeit. Rahwan erklärte, dass sich zwar viele Wissenschaftler und Ethiker darin einig seien, dass KI in Bezug auf die Art und Weise, wie Entscheidungen getroffen werden, transparent sein sollte, es jedoch weniger klar sei, dass sie auch in Bezug auf ihre Natur bei der Kommunikation mit anderen transparent sein sollten.
Letztes Jahr sorgte Google Duplex für Furore, als eine Bühnenvorführung zeigte, dass es in der Lage ist, in seinem Namen Telefonanrufe zu tätigen und Termine zu buchen, und dabei eine menschenähnliche Sprache erzeugt, die so ausgefeilt ist, dass viele Menschen sie mit einer echten Person verwechselt hätten Mir wurde nicht gesagt, dass sie mit einem Bot sprachen. Seit dem Debüt von Google Duplex haben viele KI- und Roboterethiker ihre Bedenken hinsichtlich der Technologie geäußert, was Google dazu veranlasste, dies zu sagen würde den Agenten dazu veranlassen, sich zu identifizieren als Bot in der Zukunft. Derzeit wird nur Google Duplex verwendet in sehr begrenzter Kapazität. Das wird es bald siehe Verwendung in Neuseeland, jedoch nur zur Überprüfung der Betriebszeiten von Unternehmen. Ethiker sind immer noch besorgt darüber, inwieweit die Technologie missbraucht werden könnte.
Rahawan argumentiert dass die aktuelle Studie zeigt, dass wir darüber nachdenken sollten, welche Kosten wir als Gegenleistung für Transparenz zu zahlen bereit sind:
Ist die Entwicklung eines solchen Systems ethisch vertretbar? Sollten wir Bots verbieten, sich als Menschen auszugeben, und sie zwingen, transparent zu machen, wer sie sind? Wenn die Antwort „Ja“ lautet, dann unterstreichen unsere Ergebnisse die Notwendigkeit, Standards für die Effizienzkosten festzulegen, die wir im Gegenzug für diese Transparenz zu zahlen bereit sind.“