Robotik
Ist die Ausbeutung von Robotern universal oder kulturell abhängig?

Menschen in Japan behandeln kooperative künstliche Agenten mit dem gleichen Respekt wie Menschen, während Amerikaner erheblich eher bereit sind, künstliche Intelligenz (KI) für persönlichen Gewinn auszunutzen, laut einer neuen Studie veröffentlicht in Scientific Reports von Forschern der LMU München und der Waseda-Universität Tokio.
Da selbstfahrende Fahrzeuge und andere autonome KI-Roboter immer mehr in das tägliche Leben integriert werden, können kulturelle Einstellungen gegenüber künstlichen Agenten bestimmen, wie schnell und erfolgreich diese Technologien in verschiedenen Gesellschaften umgesetzt werden.
Kulturelle Kluft in der menschlichen KI-Zusammenarbeit
“Wenn die Selbstfahrentechnologie Realität wird, werden diese alltäglichen Begegnungen definieren, wie wir die Straße mit intelligenten Maschinen teilen”, sagte Dr. Jurgis Karpus, Leitforscher der LMU München, in der Studie.
Die Forschung stellt eine der ersten umfassenden cross-kulturellen Untersuchungen dar, wie Menschen mit künstlichen Agenten in Szenarien interagieren, in denen die Interessen nicht immer übereinstimmen. Die Ergebnisse hinterfragen die Annahme, dass die Ausbeutung von Algorithmen – die Tendenz, kooperative KI auszunutzen – ein universelles Phänomen ist.
Die Ergebnisse deuten darauf hin, dass sich mit der zunehmenden Verbreitung autonomer Technologien in verschiedenen Gesellschaften unterschiedliche Integrationsherausforderungen aufgrund kultureller Einstellungen gegenüber künstlicher Intelligenz ergeben können.
Forschungsmethode: Spieltheorie offenbart verhaltensbedingte Unterschiede
Das Forschungsteam nutzte klassische Verhaltensökonomie-Experimente – das Trust Game und das Prisoner’s Dilemma – um zu vergleichen, wie Teilnehmer aus Japan und den Vereinigten Staaten mit menschlichen Partnern und KI-Systemen interagierten.
In diesen Spielen trafen die Teilnehmer Entscheidungen zwischen Eigeninteresse und gegenseitigem Nutzen, mit realen finanziellen Anreizen, um sicherzustellen, dass sie echte Entscheidungen trafen und nicht hypothetische. Dieses experimentelle Design ermöglichte es den Forschern, direkt zu vergleichen, wie die Teilnehmer Menschen gegenüber KI behandelten.
Die Spiele waren sorgfältig strukturiert, um alltägliche Situationen nachzubilden, einschließlich Verkehrsszenarien, in denen Menschen entscheiden müssen, ob sie mit einem anderen Agenten kooperieren oder ihn ausnutzen. Die Teilnehmer spielten mehrere Runden, manchmal mit menschlichen Partnern und manchmal mit KI-Systemen, was einen direkten Vergleich ihres Verhaltens ermöglichte.
“Unsere Teilnehmer in den Vereinigten Staaten kooperierten mit künstlichen Agenten erheblich weniger als mit Menschen, während Teilnehmer in Japan gleichwertige Kooperationsniveaus mit beiden Arten von Mitspielern zeigten”, heißt es im Papier.

Karpus, J., Shirai, R., Verba, J.T. et al.
Schuldgefühl als Schlüsselfaktor in kulturellen Unterschieden
Die Forscher schlagen vor, dass Unterschiede im erlebten Schuldgefühl der primäre Treiber der beobachteten kulturellen Variation in der Behandlung künstlicher Agenten sind.
Die Studie fand heraus, dass Menschen im Westen, insbesondere in den Vereinigten Staaten, eher Reue empfinden, wenn sie einen anderen Menschen ausnutzen, aber nicht, wenn sie eine Maschine ausnutzen. In Japan hingegen scheinen Menschen Schuldgefühle ähnlich zu empfinden, egal ob sie einen Menschen oder einen künstlichen Agenten schlecht behandeln.
Dr. Karpus erklärt, dass in der westlichen Denkweise das Abschneiden eines Roboters im Verkehr seine Gefühle nicht verletzt, was eine Perspektive sein könnte, die zu einer größeren Bereitschaft beiträgt, Maschinen auszunutzen.
Die Studie umfasste einen exploratorischen Teil, in dem die Teilnehmer ihre emotionalen Reaktionen nach dem Bekanntwerden der Spielergebnisse berichteten. Diese Daten lieferten wichtige Einblicke in die psychologischen Mechanismen, die den verhaltensbedingten Unterschieden zugrunde liegen.
Emotionale Reaktionen offenbaren tiefere kulturelle Muster
Wenn Teilnehmer einen kooperativen KI-Partner ausnutzten, berichteten japanische Teilnehmer über signifikant mehr negative Emotionen (Schuld, Wut, Enttäuschung) und weniger positive Emotionen (Glück, Sieg, Erleichterung) im Vergleich zu ihren amerikanischen Gegenparts.
Die Forschung fand heraus, dass Abtrünnige, die ihren KI-Mitspieler in Japan ausnutzten, signifikant mehr Schuldgefühle empfanden als Abtrünnige in den Vereinigten Staaten. Diese stärkere emotionale Reaktion könnte den größeren Widerwillen japanischer Teilnehmer erklären, künstliche Agenten auszunutzen.
Umgekehrt empfanden Amerikaner mehr negative Emotionen, wenn sie Menschen ausnutzten, als wenn sie KI ausnutzten, ein Unterschied, der bei japanischen Teilnehmern nicht zu beobachten war. Für Menschen in Japan war die emotionale Reaktion unabhängig davon, ob sie einen Menschen oder einen künstlichen Agenten ausnutzten, ähnlich.
Die Studie bemerkt, dass japanische Teilnehmer ähnlich über die Ausnutzung von menschlichen und KI-Mitspielern dachten, was auf eine grundlegend andere moralische Wahrnehmung künstlicher Agenten im Vergleich zu westlichen Einstellungen hindeutet.
Animismus und die Wahrnehmung von Robotern
Der kulturelle und historische Hintergrund Japans könnte eine bedeutende Rolle bei diesen Ergebnissen spielen und mögliche Erklärungen für die beobachteten Unterschiede im Verhalten gegenüber künstlichen Agenten und eingebetteter KI liefern.
Das Papier vermerkt, dass Japans historische Affinität für Animismus und die Überzeugung, dass nicht-lebende Objekte Seelen besitzen können, im Buddhismus dazu geführt hat, dass japanische Menschen eher akzeptierend und fürsorglich gegenüber Robotern sind als Personen in anderen Kulturen.
Dieser kulturelle Kontext könnte einen grundlegend anderen Ausgangspunkt für die Wahrnehmung künstlicher Agenten schaffen. In Japan mag es weniger eine scharfe Trennung zwischen Menschen und nicht-menschlichen Entitäten geben, die interagieren können.
Die Forschung zeigt, dass Menschen in Japan eher bereit sind, zu glauben, dass Roboter Emotionen erleben können, und eher bereit sind, Roboter als Ziel menschlicher moralischer Urteile zu akzeptieren.
In der Studie zitierte Studien deuten auf eine größere Neigung in Japan hin, künstliche Agenten als ähnlich wie Menschen wahrzunehmen, wobei Roboter und Menschen häufig als Partner und nicht in hierarchischen Beziehungen dargestellt werden. Diese Perspektive könnte erklären, warum japanische Teilnehmer künstliche Agenten und Menschen mit ähnlicher Rücksichtnahme behandelten.
Auswirkungen auf die Einführung autonomer Technologie
Diese kulturellen Einstellungen könnten direkt die Geschwindigkeit beeinflussen, mit der autonome Technologien in verschiedenen Regionen eingeführt werden, mit möglicherweise weitreichenden wirtschaftlichen und gesellschaftlichen Auswirkungen.
Dr. Karpus vermutet, dass, wenn Menschen in Japan Robotern den gleichen Respekt entgegenbringen wie Menschen, vollautonome Taxis in Tokio möglicherweise schneller zum Alltag gehören als in westlichen Städten wie Berlin, London oder New York.
Die Bereitschaft, autonome Fahrzeuge in einigen Kulturen auszunutzen, könnte praktische Herausforderungen für ihre reibungslose Integration in die Gesellschaft schaffen. Wenn Fahrer eher bereit sind, selbstfahrende Autos abzuschneiden, ihre Vorfahrt zu nehmen oder sie auf andere Weise auszunutzen, könnte dies die Effizienz und Sicherheit dieser Systeme behindern.
Die Forscher schlagen vor, dass diese kulturellen Unterschiede den Zeitplan für die weitverbreitete Einführung von Technologien wie Lieferdrohnen, autonomem öffentlichen Verkehr und selbstfahrenden Personenkraftwagen erheblich beeinflussen könnten.
Interessanterweise fand die Studie nur geringe Unterschiede darin, wie japanische und amerikanische Teilnehmer mit anderen Menschen kooperierten, was mit früheren Forschungen in der Verhaltensökonomie übereinstimmt.
Die Studie zeigte nur geringe Unterschiede in der Bereitschaft japanischer und amerikanischer Teilnehmer, mit anderen Menschen zu kooperieren. Dieses Ergebnis unterstreicht, dass die Abweichung speziell im Kontext der menschlichen KI-Interaktion auftritt und nicht auf breitere kulturelle Unterschiede im kooperativen Verhalten hinweist.
Diese Konsistenz in der menschlichen Kooperation bietet eine wichtige Grundlage, um die kulturellen Unterschiede in der menschlichen KI-Interaktion zu messen und die Schlussfolgerungen der Studie über das einzigartige Muster zu stärken.
Weitere Auswirkungen auf die KI-Entwicklung
Die Ergebnisse haben bedeutende Auswirkungen auf die Entwicklung und den Einsatz von KI-Systemen, die mit Menschen in verschiedenen kulturellen Kontexten interagieren.
Die Forschung unterstreicht die kritische Notwendigkeit, kulturelle Faktoren bei der Gestaltung und Implementierung von KI-Systemen zu berücksichtigen, die mit Menschen interagieren. Die Art und Weise, wie Menschen mit KI interagieren, ist nicht universal und kann sich erheblich zwischen Kulturen unterscheiden.
Die Missachtung dieser kulturellen Nuancen könnte zu unerwünschten Konsequenzen, langsameren Einführungsquoten und potenzieller Missbrauch oder Ausnutzung von KI-Technologien in bestimmten Regionen führen. Es unterstreicht die Wichtigkeit cross-kultureller Studien zum Verständnis der menschlichen KI-Interaktion und zur Gewährleistung der verantwortungsvollen Entwicklung und des Einsatzes von KI weltweit.
Die Forscher schlagen vor, dass, da KI immer mehr in das tägliche Leben integriert wird, das Verständnis dieser kulturellen Unterschiede für die erfolgreiche Implementierung von Technologien, die die Kooperation zwischen Menschen und künstlichen Agenten erfordern, immer wichtiger wird.
Einschränkungen und zukünftige Forschungsrichtungen
Die Forscher erkennen bestimmte Einschränkungen in ihrer Arbeit, die auf Richtungen für zukünftige Untersuchungen hinweisen.
Die Studie konzentrierte sich hauptsächlich auf zwei Länder – Japan und die Vereinigten Staaten -, was, obwohl es wertvolle Einblicke liefert, möglicherweise nicht das gesamte Spektrum kultureller Variation in der menschlichen KI-Interaktion weltweit erfassen kann. Weitere Forschung über einen breiteren kulturellen Bereich ist notwendig, um diese Ergebnisse zu verallgemeinern.
Zusätzlich bieten zwar Spieltheorie-Experimente kontrollierte Szenarien, die ideal für vergleichende Forschung sind, sie mögen jedoch nicht vollständig die Komplexität realer menschlicher KI-Interaktionen erfassen. Die Forscher schlagen vor, dass die Validierung dieser Ergebnisse in Feldstudien mit tatsächlichen autonomen Technologien ein wichtiger nächster Schritt wäre.
Die Erklärung, die auf Schuld und kulturellen Überzeugungen über Roboter basiert, obwohl durch die Daten gestützt, erfordert weitere empirische Untersuchungen, um die Kausalität definitiv zu etablieren. Die Forscher fordern weitere gezielte Studien, die die spezifischen psychologischen Mechanismen untersuchen, die diesen kulturellen Unterschieden zugrunde liegen.
“Unsere aktuellen Ergebnisse mildern die Verallgemeinerung dieser Ergebnisse und zeigen, dass die Ausbeutung von Algorithmen kein cross-kulturelles Phänomen ist”, folgern die Forscher.












