Vernetzen Sie sich mit uns

Künstliche Intelligenz

Wir richten keine KIs mehr aus. Wir richten Zivilisationen aus.

mm

Lange Zeit war die zentrale Frage der künstlichen Intelligenz (KI), wie KI-Modelle mit menschlichen Werten in Einklang gebracht werden können. Forscher versuchten, Sicherheitsregeln, ethische Prinzipien und Kontrollmechanismen zu definieren, die KI-Entscheidungen leiten. Diese Arbeit erzielte bedeutende Fortschritte. Doch mit zunehmender Leistungsfähigkeit und Verbreitung dieser KI-Systeme verschiebt sich der Fokus der Ausrichtung. Was als Herausforderung begann, ein einzelnes Modell an einen einzelnen Satz von Anweisungen anzupassen, ist nun zur viel größeren Herausforderung geworden, ganze Zivilisationen, die diese Systeme global nutzen, aufeinander abzustimmen. KI ist nicht länger nur ein Werkzeug. Sie entwickelt sich zu einem Umfeld, in dem Gesellschaften arbeiten, kommunizieren, verhandeln und konkurrieren. Daher ist die Ausrichtung kein rein technisches Problem mehr, sondern ein zivilisatorisches. In diesem Artikel erkläre ich, warum es bei der Ausrichtung nicht mehr nur um Modelle geht und warum wir anfangen müssen, in Zivilisationen statt in Maschinen zu denken. Ich erörtere auch, wie sich dieser Wandel auf unsere Verantwortung auswirkt und was er für die globale Zusammenarbeit bedeutet.

Wessen Werte repräsentiert KI wirklich?

Fragt man eine KI nach einem heiklen historischen Ereignis, hängt ihre Antwort von den analysierten Daten ab. Stammen diese Daten überwiegend aus dem westlichen Internet, ist die Antwort westlich geprägt. Sie wird Individualismus, Meinungsfreiheit und demokratische Ideale priorisieren. Für viele Menschen sind dies erstrebenswerte Werte. Doch sie sind nicht die einzigen Werte der Welt.

Nutzer in Singapur, Riad und San Francisco haben unterschiedliche Auffassungen davon, was „hilfreich“ und was „schädlich“ ist. In manchen Kulturen ist sozialer Frieden wichtiger als absolute Meinungsfreiheit. In anderen ist die Achtung der Hierarchie wichtiger als die Vermeidung von Störungen.

Wenn ein Unternehmen aus dem Silicon Valley „Reinforcement Learning aus menschlichem Feedback(RLHF) setzen sie Menschen ein, um die Antworten der KI zu bewerten. Doch wer sind diese Menschen? Welche Überzeugungen vertreten sie? Wenn sie das Modell an amerikanischen Standards ausrichten, erschaffen sie ungewollt ein amerikanisches Kulturexportgut. Sie entwickeln einen digitalen Diplomaten, der die Regeln einer bestimmten Zivilisation dem Rest der Welt aufzwingt.

Der Aufstieg der Rückkopplungsschleifen

Die Herausforderung besteht nicht nur darin, dass KI die Überzeugungen einer Kultur widerspiegelt, sondern auch darin, wie diese Überzeugungen uns verändern können. Moderne KI-Systeme haben das Potenzial, das Verhalten von Einzelpersonen, Organisationen und sogar ganzen Nationen zu prägen. Sie können beeinflussen, wie wir denken, arbeiten, vertrauen und konkurrieren. Dadurch entstehen Rückkopplungsschleifen zwischen KI-Systemen und menschlichen Gesellschaften: Wir trainieren die KI, und die KI prägt unser Denken und Handeln. Diese Schleifen verstärken sich mit der zunehmenden Verbreitung von KI. Um zu veranschaulichen, wie diese Rückkopplungsschleife funktioniert, hier zwei Beispiele:

  • Der großflächige Einsatz von KI verändert das Sozialverhalten, und dieses wiederum verändert die Daten, mit denen neue Systeme trainiert werden. So kann beispielsweise ein Empfehlungsalgorithmus beeinflussen, was Menschen sehen, lesen und glauben. Produktivitätstools verändern die Zusammenarbeit in Teams und das Lernen von Studierenden. Diese Verhaltensänderungen führen zu veränderten Datenmustern in Form von unterschiedlichen Sehgewohnheiten, Kommunikationsmustern am Arbeitsplatz oder Schreibstilen. Wenn diese Daten in zukünftige Trainingsdatensätze einfließen, passen die Modelle ihre Annahmen und Ergebnisse entsprechend an. Menschliches Verhalten prägt die Modelle, und die Modelle wiederum prägen das menschliche Verhalten.
  • Automatisierte Entscheidungshilfen beeinflussen die öffentliche Politik, und diese wiederum beeinflusst das Training zukünftiger Modelle. Beispielsweise nutzen viele Regierungen KI, um Empfehlungen für die Ressourcenverteilung zu geben, etwa um Stadtteile mit erhöhtem Bedarf an Gesundheitsversorgung oder Gebiete mit höherem Kriminalitätsrisiko zu identifizieren. Wenn politische Entscheidungsträger diese Empfehlungen umsetzen, fließen die Ergebnisse dieser Entscheidungen später in neue Datensätze ein. Langfristig prägen KI-gestützte politische Entscheidungen somit die nächste Generation von KI-Modellen.

Erkennt man diesen Rückkopplungseffekt, wird deutlich, dass KI Zivilisationen nach und nach prägt und aufeinander abstimmt. Daher stellen sich Nationen zunehmend die Frage: Wie können sie ihre Werte schützen und gleichzeitig KI in ihre Gesellschaften und Institutionen integrieren?

Die Entstehung souveräner KI

Diese Herausforderung der Abstimmung hat weltweit erhebliche Reaktionen von Regierungen hervorgerufen. Staaten haben erkannt, dass die Abhängigkeit von importierter KI ein Risiko für ihre Souveränität darstellt. Sie können es sich nicht leisten, dass ihre Bürger von einer undurchsichtigen Software, die wie ein Fremder denkt, ausgebildet, informiert und beraten werden.

Diese Erkenntnis hat zum Aufstieg von „Souveräne KIFrankreich ist Investitionen Indien investiert stark in den Aufbau von Modellen, die Französisch sprechen und das französische Recht und die Kultur verstehen. Gebäude Indigene KI-Modelle sollen ihre kulturellen Werte sichern. Die Vereinigten Arabischen Emirate und China entwickeln KI-Modelle, die auf ihre jeweiligen nationalen Visionen abgestimmt sind.

Dies ist das neue Wettrüsten. Es ist ein Wettlauf um die Deutungshoheit. Eine Zivilisation ohne eigene KI wird letztendlich ihr eigenes Gedächtnis verlieren. Wenn Ihre Kinder einer Maschine eine Frage stellen und diese mit der Logik einer anderen Kultur antwortet, beginnt Ihre Kultur zu erodieren. Diese Erkenntnis könnte jedoch zur Bildung distinkter digitaler Blöcke führen. Wir könnten am Ende eine westliche, eine chinesische, eine indische KI und so weiter haben. Diese Systeme werden mit unterschiedlichen Fakten und unterschiedlichen moralischen Kompassen arbeiten. Diese Entwicklungen machen deutlich: Wenn wir ein einheitliches, wirklich abgestimmtes KI-Modell schaffen wollen, müssen wir zunächst einen Weg finden, die Zivilisationen aufeinander abzustimmen.

Bedarf an einer diplomatischen KI

Die traditionelle Ausrichtung geht davon aus, dass ein Modell durch sorgfältiges Training, gezielte Steuerung und Schutzmechanismen ausgerichtet werden kann. Diese Denkweise entstammt dem technischen Ansatz der frühen KI-Sicherheitsforschung. Doch selbst eine perfekte Ausrichtung auf Modellebene kann die Herausforderungen der Angleichung von Zivilisationen nicht lösen. Die Ausrichtung kann nicht stabil bleiben, wenn Gesellschaften in entgegengesetzte Richtungen ziehen. Wenn Länder, Unternehmen und Gemeinschaften widersprüchliche Ziele verfolgen, werden sie KI-Systeme dazu bringen, diese Konflikte widerzuspiegeln. Diese Grenzen zeigen, dass Ausrichtung nicht nur ein technisches Problem ist. Es ist ein Problem der Governance, der Kultur und der Koordination. Und diese Probleme erfordern nicht nur Experten oder Entwickler. Sie betreffen ganze Zivilisationen.

Wie geht es also weiter? Wenn wir akzeptieren, dass eine universelle Übereinstimmung unmöglich ist, müssen wir unsere Strategie ändern. Wir dürfen nicht länger nach einer technischen Lösung für ein philosophisches Problem suchen. Wir müssen anfangen, diplomatisch zu denken. Wir brauchen Protokolle für eine „zivilisatorische Ausrichtung“. Wir müssen herausfinden, wie KI die Überzeugungen und Werte einer Gesellschaft respektieren kann, ohne ihr die Überzeugungen anderer Kulturen aufzuzwingen. Anders gesagt: Wir brauchen eine digitale UNO für unsere Algorithmen.

Dies erfordert Transparenz. Derzeit wissen wir nicht, welche Werte in den tieferen Schichten eines neuronalen Netzes verborgen liegen. Wir sehen nur die Ergebnisse. Um Zivilisationen anzugleichen, müssen wir die „Verfassung“ jedes Modells offenlegen können. Ein Modell sollte seine Voreingenommenheit offenlegen können. Es sollte sagen können: „Ich wurde mit diesen Daten und diesen Sicherheitsregeln trainiert und priorisiere diese Werte.“ Nur wenn die Voreingenommenheit sichtbar ist, können wir dem System vertrauen. Ein Benutzer sollte zwischen verschiedenen Perspektiven wechseln können. Er sollte eine Frage stellen und sehen können, wie ein „westliches“ Modell antwortet, im Vergleich zu einem „östlichen“. Dadurch würde KI zu einem Werkzeug des Verstehens und nicht zu einem Werkzeug der Indoktrination werden.

Fazit

Wir haben uns zu lange mit der Angst vor dem Terminator beschäftigt. Die eigentliche Gefahr besteht nicht darin, dass uns ein Roboter vernichtet. Die eigentliche Gefahr besteht darin, dass ein Roboter uns vergessen lässt, wer wir sind. Ausrichtung ist kein Code, den wir einmal schreiben und dann vergessen können. Es ist ein ständiges Aushandeln mit KI-Modellen, um sie mit unseren Überzeugungen und Werten in Einklang zu bringen. Es ist ein politischer Akt. Auf dem Weg in die nächste Phase des Zeitalters der künstlichen Intelligenz müssen wir über den Bildschirm hinausblicken. Wir müssen uns damit auseinandersetzen, wie KI unsere Geschichte, unsere Grenzen und unsere Überzeugungen interpretiert. Wir erschaffen die Intelligenzen, die uns helfen werden, die Welt zu regieren. Wir müssen sicherstellen, dass diese Intelligenzen die Unterschiede zwischen den Zivilisationen respektieren.

Dr. Tehseen Zia ist außerordentlicher Professor an der COMSATS-Universität Islamabad und hat einen Doktortitel in KI von der Technischen Universität Wien, Österreich. Er ist auf künstliche Intelligenz, maschinelles Lernen, Datenwissenschaft und Computer Vision spezialisiert und hat mit Veröffentlichungen in renommierten wissenschaftlichen Fachzeitschriften bedeutende Beiträge geleistet. Dr. Tehseen hat außerdem als Hauptforscher verschiedene Industrieprojekte geleitet und war als KI-Berater tätig.