Connect with us

Regulering

EU’s nye kodeks for AI kan have indvirkning på regulering

mm

Den Europæiske Kommission har nylig introduceret en Kodeks for god praksis, der kan ændre, hvordan AI-virksomheder opererer. Det er ikke bare endnu en samling retningslinjer, men snarere en komplet omstrukturering af AI-tilsyn, som selv de største spillere ikke kan ignorere.

Hvad gør denne kodeks anderledes? For første gang ser vi konkrete regler, der kan tvinge virksomheder som OpenAI og Google til at åbne deres modeller for ekstern testning, en grundlæggende ændring i, hvordan AI-systemer kan udvikles og implementeres i Europa.

De nye magtspillere i AI-tilsyn

Den Europæiske Kommission har oprettet en ramme, der specifikt retter sig mod, hvad de kalder AI-systemer med “systemisk risiko”. Vi taler om modeller, der er trænet med mere end 10^25 FLOPs beregningskraft – en grænse, som GPT-4 allerede har overskredet.

Virksomheder skal rapportere deres AI-træningsplaner to uger, før de overhovedet starter.

I centrum af dette nye system er to nøgle dokumenter: Sikkerheds- og sikkerhedsrammen (SSF) og Sikkerheds- og sikkerhedsrapporten (SSR). SSF er en omfattende vejviser for håndtering af AI-risici, der dækker alt fra den første risikoidentifikation til pågående sikkerhedsforanstaltninger. Imens fungerer SSR som et detaljeret dokumentationsværktøj for hver enkelt model.

Ekstern testning af højrisiko-AI-modeller

Kommissionen kræver ekstern testning af højrisiko-AI-modeller. Dette er ikke din standard interne kvalitetskontrol – uafhængige eksperter og EU’s AI-kontor kommer under hooden på disse systemer.

Konsekvenserne er store. Hvis du er OpenAI eller Google, skal du pludselig lade uafhængige eksperter undersøge dine systemer. Udkastet fastslår explicit, at virksomheder skal “sikre tilstrækkelig uafhængig eksperttestning, før implementering”. Det er en enorm ændring fra den nuværende selvregulerings tilgang.

Spørgsmålet opstår: Hvem er kvalificeret til at teste disse utroligt komplekse systemer? EU’s AI-kontor træder ind i et territorium, der aldrig før er blevet udforsket. De vil behøve eksperter, der kan forstå og evaluere ny AI-teknologi, samtidig med at de opretholder streng fortrolighed om, hvad de opdager.

Denne krav om ekstern testning kan blive obligatorisk på tværs af EU gennem en kommissions gennemførelsesakt. Virksomheder kan forsøge at demonstrere overholdelse gennem “tilstrækkelige alternative midler”, men ingen er helt sikre på, hvad det betyder i praksis.

Ophavsretsskydd bliver alvorligt

EU er også ved at blive alvorligt om ophavsret. De tvinger AI-udbydere til at oprette klare politikker for, hvordan de håndterer immaterielle rettigheder.

Kommissionen bakker op om robots.txt-standarden – en simpel fil, der fortæller web-crawlers, hvor de kan og ikke kan gå. Hvis en website siger “nej” gennem robots.txt, kan AI-virksomheder ikke bare ignorere det og træne på det indhold alligevel. Søgemaskiner kan ikke straffe sites for at bruge disse undtagelser. Det er et magttræk, der sætter indholdsskabere tilbage i førersædet.

AI-virksomheder skal også aktivt undgå pirat-websites, når de indsamler træningsdata. EU peger endda på deres “Counterfeit and Piracy Watch List” som et udgangspunkt.

Hvad dette betyder for fremtiden

EU er ved at skabe en helt ny spilleregn for AI-udvikling. Disse krav vil påvirke alt fra, hvordan virksomheder planlægger deres AI-projekter, til hvordan de indsamler deres træningsdata.

Hver større AI-virksomhed står over for et valg. De skal enten:

  • Åbne deres modeller for ekstern testning
  • Forsøge at finde ud af, hvad disse mystiske “alternative midler” af overholdelse ligner
  • Eller potentelt begrænse deres operationer på EU-markedet

Tidsrammen her er også vigtig. Dette er ikke nogen fjern fremtidig regulering – Kommissionen bevæger sig hurtigt. De har formået at samle omkring 1.000 interessenter, fordelt på fire arbejdsgrupper, der alle udarbejder detaljerne om, hvordan dette skal fungere.

For virksomheder, der bygger AI-systemer, kan dagene med “bevæg dig hurtigt og find ud af reglerne senere” være på vej til at være forbi. De skal begynde at tænke over disse krav nu, ikke når de bliver obligatoriske. Det betyder:

  • Planlægning af eksterne revisioner i deres udviklingstidsplan
  • Opbygning af robuste ophavsretssystemer
  • Opbygning af dokumentationsrammer, der matcher EU’s krav

Den reelle indvirkning af disse reguleringer vil udvikle sig over de kommende måneder. Mens nogle virksomheder måske søger arbejdsgange, vil andre integrere disse krav i deres udviklingsprocesser. EU’s ramme kan påvirke, hvordan AI-udvikling sker globalt, især hvis andre regioner følger med lignende tilsynsforanstaltninger. Da disse regler bevæger sig fra udkast til implementering, står AI-industrien over for sin største reguleringsskift hidtil.

Alex McFarland er en AI-journalist og forfatter, der udforsker de seneste udviklinger inden for kunstig intelligens. Han har samarbejdet med talrige AI-startups og publikationer verden over.