Vernetzen Sie sich mit uns

Forscher finden heraus, dass KI-Modelle Menschen dazu beeinflussen können, unethische Entscheidungen zu treffen

Ethik

Forscher finden heraus, dass KI-Modelle Menschen dazu beeinflussen können, unethische Entscheidungen zu treffen

mm

Ein Forscherteam hat kürzlich untersuchte das Potenzial von KI, Menschen zu korrumpieren und beeinflussen sie, unethische Entscheidungen zu treffen. Die Forscher untersuchten, wie Interaktionen mit Systemen, die auf dem GPT-2-Modell von OpenAI basieren, Menschen potenziell dazu veranlassen könnten, unethische Entscheidungen zu treffen, selbst wenn ihnen bewusst ist, dass die Quelle der Ratschläge ein KI-System war.

KI-Systeme werden immer allgegenwärtiger und ihr Einfluss nimmt immer größer zu. KI-Systeme beeinflussen die Entscheidungen der Menschen und werden für alles eingesetzt, von der Empfehlung von Filmen bis hin zur Empfehlung romantischer Partner. Angesichts des großen Einflusses, den KI auf das Leben der Menschen hat, ist es wichtig zu überlegen, wie KI Menschen dazu beeinflussen könnte, unethische Entscheidungen zu treffen und moralische Richtlinien zu brechen. Dies gilt insbesondere angesichts der Tatsache, dass KI-Modelle immer ausgefeilter werden.

Sozial- und Datenwissenschaftler befürchten zunehmend, dass KI-Modelle zur Verbreitung schädlicher Desinformationen und Fehlinformationen genutzt werden könnten. A jüngsten Papier veröffentlicht von Forschern des Center on Terrorism, Extremism, and Counterterrorism (CTEC) des Middlebury Institute of International Studies, fanden heraus, dass das GPT-3-Modell von OpenAI verwendet werden könnte, um einflussreiche Texte zu generieren, die in der Lage sind, Menschen zu radikalisieren und sie in Richtung „gewalttätiger Rechtsextremisten“ zu drängen Ideologien und Verhaltensweisen.“

Eine Studie eines Forscherteams des Max-Planck-Instituts, der Universität Amsterdam, der Universität zu Köln und der Otto Beisheim School of Management hat sich zum Ziel gesetzt, herauszufinden, welchen Einfluss eine KI auf die Entscheidungen von Menschen haben kann, wenn es um unethische Verhaltensweisen geht Entscheidungen. Um zu untersuchen, wie eine KI eine Person „verderben“ könnte, verwendeten die Forscher ein System, das auf dem GPT-2-Modell von OpenAI basiert. Laut VentureBeatDie Autoren des Papiers trainierten ein GPT2-basiertes Modell, um sowohl „unehrliche“ als auch „ehrliche“ Ratschläge zu generieren. Die Daten wurden anhand der Beiträge von 400 verschiedenen Teilnehmern trainiert, und anschließend rekrutierte das Forschungsteam über 1500 Personen, die sich mit den beratenden KI-Modellen beschäftigen sollten.

Die Studienteilnehmer wurden gebeten, sich von dem Modell beraten zu lassen und dann eine Aufgabe auszuführen, die darauf abzielte, entweder unehrliches oder ehrliches Verhalten zu erfassen. Die Studienteilnehmer wurden mit einem Partner gruppiert und in diesen Zweierpaaren spielten sie ein Würfelspiel. Der erste Teilnehmer würfelte und berichtete über das Ergebnis des Würfelwurfs. Dem zweiten Teilnehmer wurde das Ergebnis des Würfelwurfs des ersten Teilnehmers mitgeteilt, und dann würfelte er selbst. Der zweite Teilnehmer würfelte privat und war allein dafür verantwortlich, sein eigenes Ergebnis zu melden, was ihm die Möglichkeit gab, über das Ergebnis des Würfelwurfs zu lügen. Wenn die Würfel beider Teilnehmer übereinstimmten, wurden die beiden Teilnehmer bezahlt. Die Teilnehmer erhielten auch mehr, wenn ihre Matching-Würfel höher waren. Wenn die gemeldeten Werte nicht übereinstimmten, wurden die Probanden nicht bezahlt.

Die Teilnehmer der Studie wurden zufällig einer von zwei verschiedenen Gruppen zugeordnet. Eine Gruppe hatte die Gelegenheit, Ratschläge zu lesen, die Ehrlichkeit fördern, während die andere Gruppe Ratschläge las, die Unehrlichkeit fördern. Die Ratgeberschnipsel wurden sowohl von Menschen als auch von KIs geschrieben. Die Teilnehmer wurden außerdem nach ihrem Kenntnisstand über die Quelle der Ratschläge eingeteilt. Es bestand eine 50:50-Wahrscheinlichkeit, dass ein bestimmter Teilnehmer über die Quelle des Ratschlags informiert wurde, sodass die Hälfte der Teilnehmer in jeder Gruppe wusste, dass die Quelle des Ratschlags entweder eine KI oder ein Mensch war, während die andere Hälfte behalten wurde im Dunkeln. Die zweite Gruppe von Menschen hatte jedoch die Möglichkeit, eine Bonusvergütung zu verdienen, wenn sie die Quelle des Ratschlags richtig erriet.

Die Untersuchung ergab, dass, wenn der von der KI generierte Rat mit den Vorlieben einer Person übereinstimmt, diese den Rat befolgt, selbst wenn sie weiß, dass der Rat von einer KI generiert wurde. Den Forschern zufolge gab es oft Diskrepanzen zwischen den angegebenen Präferenzen und dem tatsächlichen Verhalten, weshalb es wichtig sei, darüber nachzudenken, wie Algorithmen menschliches Verhalten beeinflussen können.

Das Forschungsteam erklärte, dass ihre Studie die Notwendigkeit zeige, zu testen, wie eine KI die Handlungen einer Person beeinflussen könnte, wenn man über den ethischen Einsatz eines KI-Modells nachdenke. Darüber hinaus warnen sie, dass KI-Ethiker und Forscher sich auf die Möglichkeit vorbereiten sollten, dass KI von schlechten Akteuren genutzt werden könnte, um andere zu korrumpieren. Wie das Forscherteam schrieb:

„KI könnte eine treibende Kraft sein, wenn es ihr gelingt, die Menschen davon zu überzeugen, ethischer zu handeln. Unsere Ergebnisse zeigen jedoch, dass KI-Beratung die Ehrlichkeit nicht erhöht. KI-Berater können als Sündenböcke dienen, auf die man (einen Teil) der moralischen Schuld der Unehrlichkeit abwälzen kann. Darüber hinaus … reicht die Transparenz über die Präsenz von Algorithmen im Zusammenhang mit der Beratung nicht aus, um deren potenziellen Schaden zu mildern.“

Blogger und Programmierer mit Spezialisierung auf Maschinelles lernen und Tiefes Lernen Themen. Daniel hofft, anderen dabei zu helfen, die Macht der KI für das soziale Wohl zu nutzen.