Connect with us

EU’s Neuer AI-Verhaltenskodex wird die Regulierung beeinflussen

Regulierung

EU’s Neuer AI-Verhaltenskodex wird die Regulierung beeinflussen

mm

Die Europäische Kommission hat kürzlich einen Verhaltenskodex vorgestellt, der das Betreiben von AI-Unternehmen verändern könnte. Es handelt sich nicht nur um eine weitere Richtlinie, sondern um eine umfassende Überarbeitung der AI-Überwachung, die sogar die größten Spieler nicht ignorieren können.

Was macht diesen Kodex anders? Zum ersten Mal sehen wir konkrete Regeln, die Unternehmen wie OpenAI und Google dazu zwingen könnten, ihre Modelle für externe Tests zu öffnen, eine grundlegende Veränderung in der Entwicklung und Bereitstellung von AI-Systemen in Europa.

Die neuen Schlüsselspieler in der AI-Überwachung

Die Europäische Kommission hat einen Rahmen geschaffen, der sich speziell auf das richtet, was sie als AI-Systeme mit “systemischem Risiko” bezeichnen. Wir sprechen über Modelle, die mit mehr als 10^25 FLOPs Rechenleistung trainiert wurden – eine Schwelle, die GPT-4 bereits überschritten hat.

Unternehmen müssen ihre AI-Trainingspläne zwei Wochen vor Beginn melden.

Im Mittelpunkt dieses neuen Systems stehen zwei wichtige Dokumente: das Sicherheits- und Sicherheitsframework (SSF) und der Sicherheits- und Sicherheitsbericht (SSR). Das SSF ist eine umfassende Straßenkarte für die Verwaltung von AI-Risiken, die alles von der ersten Risikoidentifizierung bis hin zu laufenden Sicherheitsmaßnahmen abdeckt. Der SSR dient als detailliertes Dokumentationstool für jedes einzelne Modell.

Externe Tests für High-Risk-AI-Modelle

Die Kommission fordert externe Tests für High-Risk-AI-Modelle. Dies ist nicht die übliche interne Qualitätskontrolle – unabhängige Experten und das EU-AI-Büro werden sich mit diesen Systemen auseinandersetzen.

Die Auswirkungen sind groß. Wenn Sie OpenAI oder Google sind, müssen Sie plötzlich externen Experten Zugang zu Ihren Systemen gewähren. Der Entwurf besagt explizit, dass Unternehmen “ausreichende unabhängige Expertentests vor der Bereitstellung sicherstellen” müssen. Das ist eine enorme Veränderung im Vergleich zum aktuellen Selbstregulierungsansatz.

Die Frage stellt sich: Wer ist qualifiziert, diese unglaublich komplexen Systeme zu testen? Das EU-AI-Büro betritt ein Gebiet, das noch nie zuvor kartiert wurde. Sie werden Experten benötigen, die neue AI-Technologie verstehen und bewerten können, während sie gleichzeitig strikte Vertraulichkeit über das bewahren, was sie entdecken.

Diese Anforderung an externe Tests könnte durch einen Durchführungsbeschluss der Kommission in der gesamten EU verpflichtend werden. Unternehmen können versuchen, die Einhaltung durch “angemessene alternative Mittel” nachzuweisen, aber niemand weiß genau, was das in der Praxis bedeutet.

Urheberrechtsschutz wird ernst

Die EU wird auch den Urheberrechtsschutz ernst nehmen. Sie zwingen AI-Anbieter, klare Richtlinien darüber zu erstellen, wie sie geistiges Eigentum handhaben.

Die Kommission unterstützt den robots.txt-Standard – eine einfache Datei, die Webcrawler sagt, wo sie hingehen dürfen und wo nicht. Wenn eine Website “nein” durch robots.txt sagt, können AI-Unternehmen nicht einfach ignorieren und trotzdem auf diesem Inhalt trainieren. Suchmaschinen dürfen Websites nicht bestrafen, weil sie diese Ausnahmen verwenden. Es ist ein Machtspiel, das die Inhalteersteller wieder in den Fahrersitz setzt.

AI-Unternehmen müssen auch aktiv Pirateriewebsites meiden, wenn sie Trainingsdaten sammeln. Die EU weist sie sogar auf ihre “Liste der gefälschten und piratischen Websites” als Ausgangspunkt hin.

Was dies für die Zukunft bedeutet

Die EU schafft ein völlig neues Spielfeld für die AI-Entwicklung. Diese Anforderungen werden alles beeinflussen, von der Planung von AI-Projekten bis hin zur Sammlung von Trainingsdaten.

Jedes große AI-Unternehmen steht jetzt vor einer Entscheidung. Sie müssen entweder:

  • Ihre Modelle für externe Tests öffnen
  • Herausfinden, wie diese geheimnisvollen “alternativen Mittel” der Einhaltung aussehen
  • Oder möglicherweise ihre Operationen auf dem EU-Markt einschränken

Die Zeitleiste ist hier auch wichtig. Dies ist keine ferne Zukunftsvorschrift – die Kommission handelt schnell. Sie hat es geschafft, etwa 1.000 Interessengruppen in vier Arbeitsgruppen aufzuteilen, die alle die Details davon ausarbeiten, wie dies funktionieren wird.

Für Unternehmen, die AI-Systeme aufbauen, könnten die Tage von “schnell handeln und die Regeln später herausfinden” zu Ende gehen. Sie müssen jetzt über diese Anforderungen nachdenken, nicht wenn sie verpflichtend werden. Das bedeutet:

  • Planung von externen Audits in ihrer Entwicklungszeitachse
  • Einrichtung robuster Urheberrechts-Compliance-Systeme
  • Aufbau von Dokumentationsframeworks, die den Anforderungen der EU entsprechen

Die tatsächlichen Auswirkungen dieser Vorschriften werden sich in den kommenden Monaten entfalten. Während einige Unternehmen nach Umgehungsstrategien suchen, werden andere diese Anforderungen in ihre Entwicklungsprozesse integrieren. Der Rahmen der EU könnte beeinflussen, wie die AI-Entwicklung global stattfindet, insbesondere wenn andere Regionen mit ähnlichen Überwachungsmaßnahmen folgen. Wenn diese Regeln von Entwürfen zu Implementierungen übergehen, steht die AI-Branche vor ihrem größten regulatorischen Wandel.

Alex McFarland ist ein KI-Journalist und Schriftsteller, der die neuesten Entwicklungen im Bereich der künstlichen Intelligenz erforscht. Er hat mit zahlreichen KI-Startups und Veröffentlichungen weltweit zusammengearbeitet.