Connect with us

Die meisten US-Technologie-Exekutiven wollen AI-Regulierung, aber wer sollte sie leiten?

Regulierung

Die meisten US-Technologie-Exekutiven wollen AI-Regulierung, aber wer sollte sie leiten?

mm

Genau wie die 1990er die Kommerzialisierung des Internets, die 2000er das Smartphone und die 2010er den Aufstieg der sozialen Medien sahen, gehören die 2020er zu AI. Wie diese früheren technologischen Durchbrüche expandiert AI auch scheinbar schneller als Regulierungsbehörden und Gesetzgeber Schritt halten können.

Die Dotcom-Blase explodierte 1993 mit der Einführung des umfassenden Mosaic-Browsers, und es war nicht bis 1996, dass der US-Kongress den Telekommunikationsakt verabschiedete, den ersten, der das Internet explizit ansprach. Ähnlich verhält es sich mit Apple, das 2007 das iPhone vorstellte, obwohl Gesetzgeber den 21st Century Communications and Video Accessibility Act im Jahr 2010 verabschiedeten, der alle Smartphones aufforderte, Zugänglichkeitsfunktionen zu integrieren.

Und obwohl das „soziale Medienjahrzehnt“ der 2010er die Gründung und Expansion von Plattformen wie Facebook, WhatsApp, YouTube und Instagram sah, wurde es nicht bis zur zweiten Hälfte des Jahrzehnts, dass der FOSTA-SESTA-Akt genehmigt wurde, der Plattformen für das bewusste Erleichtern von Menschenhandel haftbar machte. Wird sich die Geschichte mit AI wiederholen?

Während AI nach der branchenverändernden Veröffentlichung von OpenAIs ChatGPT im Jahr 2022 mainstream wurde, hat das Land, in dem die Technologie entwickelt wurde, noch keine Bundesgesetze zur Regulierung verabschiedet. Die USA haben stattdessen ihre Haltung geändert – von restriktiv zu deregulierend –, da sich die Verwaltungen geändert haben.

AI in den USA: Ein bipartisanisches Thema

Der ehemalige Präsident Joe Biden’s Sicherer, sicherer und vertrauenswürdiger-Akt erforderte 2023, dass Bundesbehörden Schritte zur AI-Sicherheit, Bürgerrechten, Gleichheit und Transparenz unternahmen. „Die Nutzung von AI für das Gute und die Verwirklichung ihrer zahlreichen Vorteile erfordert die Abmilderung ihrer erheblichen Risiken“, hieß es im Akt.

Im Januar 2025 jedoch unterzeichnete der derzeitige Präsident Donald Trump den Entfernen von Barrieren für die amerikanische Führung in der künstlichen Intelligenz-Akt, aufhebend bestehende AI-Richtlinien und -Anweisungen „die als Barrieren für die amerikanische AI-Innovation wirken, und bahnt den Weg für die Vereinigten Staaten, um entschlossen zu handeln und die globale Führung in der künstlichen Intelligenz zu behalten“.

Die derzeitige Verwaltung versucht also, die AI-Innovation in den USA durch Deregulierungsmaßnahmen zu beschleunigen und potenzielle Risiken durch Investitionen in Forschung und Entwicklung auszugleichen. Die Frage bleibt jedoch, ob es die Regierung ist, die diese Bedenken ansprechen muss.

Heute gibt es fast universelle Ängste über AI-Risiken, einschließlich Ethik, Störung und Vertrauen. Eine Studie aus dem Jahr 2024 über multistakeholderbezogene Bedenken, die durch AI entstehen, fand heraus, dass die dringlichsten Bedenken Bias, Missbrauch, unerwartete Maschinenaktionen, Ungleichheit, soziale Angst und Änderungen in den Lieferketten umfassen, um nur einige zu nennen.

Die meisten US-Technologie-Exekutiven stimmen zu, betonen jedoch den Widerspruch. Ein Bericht von Solvd, einem AI-Beratungs- und Digitalengineering-Unternehmen, kam im September 2025 zu dem Schluss, dass 97 % der antwortenden Chief Information Officers (CIOs) und Chief Technology Officers (CTOs) besorgt über den unethischen Einsatz von AI sind, 87 % jedoch glauben, dass zu viel AI-Regulierung die Innovation behindern und zu einem Wettbewerbsnachteil führen könnte.

Die wichtigsten Bedenken dieser Führungskräfte spiegeln diejenigen wider, die in der Studie von 2024 identifiziert wurden: AI-Modelle, die so mächtig werden, dass sie nicht mehr kontrolliert werden können, bösartige Akteure, die möglicherweise AI-Schwachstellen ausnutzen, AI-Modelle, die zu viel Zugang zu Unternehmensdaten haben, und die Fehlinformationen oder Voreingenommenheit, die die Technologie verursachen könnte.

Unter den 500 amerikanischen CIOs und CTOs, die Solvd befragte und deren Unternehmen über 500 Mio. USD Umsatz pro Jahr erzielen, bevorzugten 61 % eine öffentliche Regulierung, während 36 % eine branchenführende Regulierung bevorzugten.

Eine branchenführende Regulierung könnte ein gemischtes Modell bedeuten, das sich von der öffentlich-privaten Dichotomie entfernt. Die Biden-Verwaltung verhandelte 2023 einen Deal mit Top-Technologie-Exekutiven, der freiwillige Verpflichtungen im Hinblick auf AI-Sicherheitsvorkehrungen umfasste. Solche Zusagen umfassten die Gewährleistung, dass Produkte vor ihrem öffentlichen Start sicher seien, die Schaffung von Systemen, die Sicherheit an erste Stelle setzen, und das Gewinnen des Vertrauens der Öffentlichkeit durch Transparenz und die Offenlegung der Fähigkeiten, Grenzen und Bereiche des geeigneten und unangemessenen Einsatzes von AI-Systemen.

Ein globales Gespräch

Trotz der Divergenz in der Präferenz der Unternehmensexekutiven für öffentliche oder branchenführende Regulierungsrahmen bleibt die Tatsache bestehen, dass 82 % von ihnen hauptsächlich für die interne AI-Governance verantwortlich sind, laut Solvd. Nur 8 % der Befragten wiesen auf die Senior-Führung hin, und 5 % sagten, ihre Unternehmen hätten einen dedizierten AI-Ethikrat oder ein Compliance-Komitee.

Unternehmen – und ihre Mitarbeiter – sind somit gefangen zwischen dem Warten auf eine öffentliche Politik, die möglicherweise kommen oder nicht kommen mag, und dem Handeln, das weitgehend unabhängig von der Senior-Führung und Teams ist, die in AI-Ethik ausgebildet sind.

Unterschiedliche Kontexte haben unterschiedliche Lösungen für diese Komplexität gefunden. Die Europäische Union (EU) zum Beispiel kontrastiert scharf mit dem deregulierenden Ansatz der Trump-Verwaltung durch den EU-AI-Akt, das weltweit erste umfassende AI-Gesetz. Der Akt, der im März 2024 verabschiedet wurde, verbot bestimmte AI-Anwendungen, etablierte einen risikobasierten Bewertungsrahmen und forderte rechtlich Transparenz und Kommunikation mit den Nutzern.

Andere folgen dem Beispiel der EU. Chile, Südamerikas AI-Führer, schlug kürzlich einen Gesetzentwurf zur Regulierung von AI vor, der vom European AI Act inspiriert wurde. China hingegen umgeht diese Hürden weitgehend, da sein politisches System staatlich sanktionierte Regulierung, Subventionen und Partnerschaften mit privaten AI-Unternehmen bevorzugt. Die Herausforderungen des Landes stammen weniger von einem regulatorischen Dilemma und mehr von den Risiken der Zensur und staatlicher Einmischung in die Innovation.

Aber die USA, als globale AI-Führer, sind dazu verpflichtet, den Ton für die Zukunft der Regulierungsrahmen zu setzen.

Abschließende Gedanken

Die Implementierung und Innovation von AI ist zu einem Wettbewerbsvorteil in fast jedem Bereich auf der ganzen Welt geworden. Aber ohne Regulierungsklärheit und wechselnde Politik müssen Technologie-Exekutiven ihre eigenen Sicherheitsvorkehrungen setzen und gleichzeitig für den Schutz der Verbraucher, das Gewinnen ihres Vertrauens trotz weit verbreiteter Angst vor AI und die Innovation sorgen.

Trotz der Bedenken in verschiedenen Branchen, dass strenge Regulierungen die Innovation behindern könnten, könnte das Gegenteil der Fall sein. Laut RegulatingAI, einer in den USA ansässigen Non-Profit-Organisation, die sich mit der Schnittstelle zwischen AI und Regulierung befasst, behindert die Unsicherheit über AI-Regulierung die Adoption der Technologie, was die Verwirklichung der wirtschaftlichen Vorteile verzögert, Investitionen fehlen lässt und die Skalierungsmargen der Unternehmen behindert.

„Die Klärung, wie AI-Systeme in regulatorischen Kontexten definiert werden, ist von entscheidender Bedeutung, da Unsicherheit in den Definitionen zu Compliance-Herausforderungen hinzufügt“, betonte die Non-Profit-Organisation.

Ebenso betonte Solvd die Wichtigkeit, dass Unternehmen die gegenwärtige regulatorische Verwirrung nutzen. „Jetzt ist der perfekte Moment für Unternehmen, um effektive interne Governance zu etablieren, bevor externe Regulierungsbehörden eingeschaltet werden und möglicherweise weniger flexible Lösungen auferlegen“, schloss der Bericht von Solvd.

In diesem Kontext stehen AI-Innovatoren in den USA vor beispiellosen Herausforderungen: Reputationsrisiken, wenn sie keine Überwachungsrichtlinien einführen, und die Möglichkeit von Compliance-Lücken, wenn Regulierungen eingeführt werden.

Aber es gibt auch Chancen. Mit dem Rückblick auf das Internet, Smartphones und soziale Medien ist jetzt genau der richtige Zeitpunkt, um voranzuschauen und ein Ökosystem aufzubauen, das Innovation mit Verantwortung in Einklang bringt, Vertrauen fördert und auf die Unvermeidlichkeit von Regulierungen vorbereitet.

Salomé ist eine in Medellín geborene Journalistin und Senior-Reporterin bei Espacio Media Incubator. Mit einem Hintergrund in Geschichte und Politik betont Salomés Arbeit die gesellschaftliche Relevanz von aufkommenden Technologien. Sie wurde in Al Jazeera, Latin America Reports und The Sociable unter anderen vorgestellt.