Vordenker
Wer wird uns vor künstlich intelligenter Desinformation schützen?

Generative KI ist in weniger als einem Jahr von null auf hundert gegangen. Während es noch früh ist, hat es sein Potenzial gezeigt, Unternehmen zu verändern. Darüber können wir alle übereinstimmen. Wo wir uns unterscheiden, ist, wie wir die Gefahren, die sie birgt, eindämmen.
Um klar zu sein, bin ich für Innovation und weit entfernt von einem Angstmacher. Aber der jüngste Anstieg der Fehlinformationen – größtenteils darauf abzielend, Polarisierung um kontroversielle Themen der Stunde zu schaffen – hat deutlich gemacht, dass, wenn sie unkontrolliert bleibt, gen KI Chaos in Gesellschaften anrichten könnte.
Wir haben diesen Film bereits mit sozialen Medien gesehen, aber es dauerte Jahre und harte Lektionen, bis wir uns ihrer Mängel bewusst wurden. Wir haben (vermutlich) etwas gelernt. Die Frage heute ist wer uns helfen wird, den Strom der Realitätsverzerrung durch gen KI zu stoppen, und wie?
Vorhersehbar beginnen Regierungen zu handeln. Europa ist dabei, die Führung zu übernehmen, wie es immer mehr bei der Regulierung von Technologie zeigt. Die USA sind direkt dahinter, mit Präsident Biden, der im Oktober einen Exekutivbefehl erlassen hat.
Aber es wird ein globales Dorf erfordern, das zusammenarbeitet, um “gen KI ehrlich zu halten”. Und bevor die Regierung helfen kann, muss sie die Grenzen der verfügbaren Ansätze verstehen.
Das Identitätsproblem ist viel schlimmer geworden
In dieser neuen Welt wird die Wahrheit zur Nadel im Heuhaufen der Meinungen, die als Fakten getarnt sind. Wissen, wer der Inhalt stammt, ist wichtiger denn je.
Und es ist nicht so einfach, wie das Dekret, dass jedes soziale Medienkonto identitätsüberprüft werden muss. Es gibt heftigen Widerstand dagegen, und in einigen Fällen ist Anonymität notwendig, um Kontoinhaber gerechtfertigt zu schützen. Darüber hinaus interessieren sich viele Konsumenten des schlimmsten Inhalts nicht dafür, ob er glaubwürdig ist oder woher er stammt.
Trotz dieser Vorbehalte wird die potenzielle Rolle der Identität bei der Bewältigung von gen KI unterschätzt. Skeptiker, hören Sie mir zu.
Lassen Sie uns vorstellen, dass Regulierung oder soziales Gewissen Plattformen dazu bringen, jedem Kontoinhaber diese Auswahlmöglichkeiten zu geben:
- Seine Identität überprüfen oder nicht und
- Seine überprüfte Identität öffentlich bekannt geben oder einfach als “ID überprüft” gekennzeichnet werden
Dann kann das soziale Medienpublikum besser entscheiden, wer glaubwürdig ist. Ebenso wichtig, wenn nicht noch wichtiger, unterstützt die Identität die Rechenschaftspflicht. Plattformen können entscheiden, welche Maßnahmen gegen serienmäßige “Fehlinformanten” und wiederholte Missbraucher von KI-generiertem Inhalt ergriffen werden, selbst wenn sie unter verschiedenen Kontonamen auftauchen.
Mit gen KI, die die Einsätze erhöht, glaube ich, dass die Identität – wissen, wer genau was gepostet hat—kritisch ist. Einige werden sich dagegen wehren, und die Identität ist keine umfassende Antwort. Tatsächlich wird keine Lösung alle Beteiligten zufriedenstellen. Aber wenn die Regulierung die Plattformen dazu zwingt, die Identitätsüberprüfung für alle Konten anzubieten, bin ich überzeugt, dass der Einfluss ein riesiger positiver sein wird.
Das Moderationsdilemma
Inhaltsmoderation – automatisiert und menschlich – ist die letzte Verteidigungslinie gegen unerwünschten Inhalt. Menschliche Moderation ist ein harter Job, mit dem Risiko psychischer Schäden durch die Konfrontation mit dem Schlimmsten, was die Menschheit zu bieten hat. Es ist auch teuer und oft beschuldigt, voreingenommene Zensur zu betreiben, die die Plattformen zu reduzieren versuchen.
Automatisierte Moderation übersteigt die menschliche Kapazität, um mit den Fluten neuer Inhalte umzugehen, aber sie versteht nicht den Kontext (Memetik sind ein häufiges Beispiel) und kulturelle Nuancen. Beide Formen der Moderation sind entscheidend und notwendig, aber sie sind nur Teil der Antwort.
Die oft gehörte, konventionelle Verschreibung für die Kontrolle von gen KI lautet: “Zusammenarbeit zwischen Technikführern, Regierung und Zivilgesellschaft ist erforderlich.” Sicher, aber was speziell?
Regierungen können auf ihrer Seite soziale und Medienplattformen dazu bringen, Identitätsüberprüfung und diese auf allen Beiträgen prominent anzuzeigen. Regulierungsbehörden können auch den Weg zu Glaubwürdigkeitsmetriken ebnen, die tatsächlich helfen, zu messen, ob eine Quelle glaubwürdig ist. Zusammenarbeit ist notwendig, um universelle Standards zu entwickeln, die spezifische Anleitung und Richtung geben, damit der private Sektor nicht raten muss.
Schließlich, sollte es illegal sein, bösartige KI-Ausgaben zu erstellen? Gesetze, die Inhalte verbieten, die für illegale Aktivitäten bestimmt sind, könnten den Umfang von giftigem Inhalt reduzieren und die Last auf Moderatoren verringern. Ich sehe Regulierung und Gesetze nicht als in der Lage, Fehlinformationen zu besiegen, aber sie sind entscheidend, um die Bedrohung zu bekämpfen.
Die sonnige Seite der Straße: Innovation
Das Versprechen der Innovation macht mich hier zu einem Optimisten. Wir können nicht erwarten, dass Politiker oder Plattformbesitzer uns vollständig vor KI-generierter Täuschung schützen. Sie lassen eine große Lücke, und das ist genau das, was die Erfindung neuer Technologien inspirieren wird, um Inhalte zu authentifizieren und Fälschungen zu erkennen.
Da wir nun die Kehrseite der sozialen Medien kennen, haben wir schnell erkannt, dass generative KI sich als ein riesiger Nettonachteil für die Menschheit erweisen könnte, mit ihrer Fähigkeit, zu polarisieren und zu täuschen.
Optimistisch sehe ich die Vorteile von vielschichtigen Ansätzen, bei denen Kontrollmethoden zusammenarbeiten, zunächst an der Quelle, die Erstellung von Inhalten, die für illegale Nutzung bestimmt sind, einschränkend. Dann, vor der Veröffentlichung, die Identität derjenigen, die Anonymität ablehnen, überprüfend. Als Nächstes, klare Kennzeichnung, um Glaubwürdigkeitsbewertungen und die Identität des Posters oder deren Fehlen anzuzeigen. Schließlich können automatisierte und menschliche Moderation einige der schlimmsten Inhalte filtern. Ich würde neue Authentifizierungstechnologie bald online erwarten.
Addieren Sie all dies, und wir werden eine viel bessere, wenn auch nie perfekte, Lösung haben. Inzwischen sollten wir unsere Fähigkeiten aufbauen, um zu entscheiden, was real ist, wer die Wahrheit sagt und wer versucht, uns zu täuschen.












