Tankeledere
Den europeiske kommisjonens nye GPAI-mal – Hva betyr dette for AI-trening?

I juli lanserte Den europeiske kommisjon (EC) en ny generell formål kunstig intelligens (GPAI)-mal. Dette betyr at AI-tilbydere må avsløre innholdet som er innført i modellene for å trene dem. Dette kommer etter måneder og måneder med overskrifter om skapere som hevder at innhold er brukt uten samtykke til å trene AI.
Med denne nye malen, har EU gjort sin posisjon klar: transparens er nå ikke-forhandelbar. Svart boks-trening, der noe er skapt uten å avsløre dens indre mekanismer, vil ikke være et alternativ for AI-utviklere. Dette markerer en betydelig endring, da drift i Europa nå vil kreve full visibilitet inn i modellinndata og treningdata-proveniens, og tvinger en re-evaluering av datainnsamling og bruk.
Mange har pekt på den skarpe forskjellen mellom dette og den nylig lanserte US AI-aksjonsplan, som fokuserer tungt på deregulering. Som med enhver ny lov eller regulering, må bedrifter nå ta stock og vurdere nøyaktig hvordan GPAI-malen vil påvirke operasjonene.
Hvis de opererer på tvers av regioner, vil de gjøre det samme med US AI-aksjonsplan, og ytterligere forvirre ting. Fordi disse og det faktum at regulering av AI-utvikling på denne måten er uutforsket territorium, vil utgangene fra utviklerne sannsynligvis være svært forskjellige.
Dissektning av generell formål kunstig intelligens-modell-mal
I juli i år, offentliggjorde Den europeiske kommisjon en obligatorisk mal for GPAI-tilbydere så de kan publisere en offentlig sammenfatting av dataene som er brukt til å trene deres modeller. Som en del av EU AI-loven, må tilbydere avsløre datakategorier som offentlig tilgjengelige datasett, private lisensierte data, skrapet nettinnhold, brukerdata og syntetisk data. Målet er å enable copyright-innehavere, brukere og nedstrøms-utviklere å utøve deres rettigheter under EU-loven.
GPT-er er trenet med store mengder data; imidlertid er det i det nåværende markedet begrenset informasjon tilgjengelig om opphavet til disse dataene. Den offentlige sammenfattingen som denne malen setter ut, vil gi en omfattende oversikt over dataene som er brukt til å trene en modell, liste hoveddata-samlinger og forklare andre kilder som er brukt.
Sammenlign og kontrast, US AI-aksjonsplan
I sammenligning, er US fast bestemt på å vinne AI-konkurransen og opprettholde sin konkurransefordel over Kina, da Trump-administrasjonen annonserte sin AI-aksjonsplan tidligere i sommeren. Denne nye AI-rammen søker å akselerere konstruksjonen av energi-intensive data-sentre som driver AI-systemer ved å lette miljøreguleringer. Samtidig søker den å øke den globale eksporten av amerikanske AI-teknologier. Med 90 anbefalinger, reflekterer planen de voksende anstrengelsene fra US for å forbli foran sine globale konkurrenter.
Planen er bygget rundt tre kjerne-pilarer – akselerere innovasjon, bygge Amerikas AI-infrastruktur og fremme lederskap i internasjonal AI-diplomati og sikkerhet.
Som en del av dette, er en nøkkel-takaway fra planen hvordan Amerika vil ‘ledere med eksempel’ når det gjelder AI-vekst – gjennom trening, talent-utvekslinger og utvidelse av adopsjon på tvers av industrier.
Med denne planen, søker US å strømlinje alle sine nåværende teknologireguleringer, særlig miljøreguleringer, for å sikre at lovgivningen ikke bremser veksten, mens de oppmuntrer til videre internasjonal distribusjon av US AI-programvare og maskinvare. Denne ‘anti-regulerings’-tilnærmingen markerer en tydelig endring fra tidligere rammer sentrert rundt etikk, transparens og ansvarlig innovasjon – i stedet beveger den seg mot en mer aggressiv ‘innovasjon først’-aksjonsplan.
Den manglende brikken
Det er verdt å ta et steg tilbake på dette stadiet og vurdere om disse handlingene, selv om de er forskjellige, kan lide under de samme feilene som vil føre til at utviklerne ser en mangel på verdi i å etterfølge dem. EU og US-tilnærmingene etterlater en kritisk gap rundt immaterielle rettigheter i AI-treningssammenhenger. EU AI-loven krever treningssammenfatninger og en opphavsrettslig politikk, men den etablerer ikke et skalerbart rammeverk for å identifisere eller lisensiere opphavsrettslige verk.
I US, finnes det ingen spesifikke regler – og etterlater AI-selskaper til å navigere en utviklende lovgivningsramme formet av rettsavgjørelser og pågående tvister med rettighetshavere. Utenfor den juridiske teksten, hva som mangler, er den praktiske siden; ingen av tilnærmingene setter ut arbeidsbare, bransje-omfattende metoder for å oppdage beskyttet innhold i stor skala, verifisere lovlige bruk eller strømlinje lisensiering. Inntil slike løsninger er definert, vil usikkerheten rundt opphavsrett i AI-trening forbli en betydelig utfordring for industrien.
Den skjulte kostnaden av bedrifter som hopper over AI-sporbarhet
Til tross for noen av feilene i disse reguleringene, vil det antas at de vil føre til at AI-utviklerne blir svært fokusert på hvordan de kan holde seg flytende fra et juridisk perspektiv – men dette er ikke alltid tilfelle. I virkeligheten er den virkelige skillelinjen i AI ikke mellom EU og US-regulering, men mellom selskaper som investerer i sporbarhet i dag og de som gambler med at de ikke må. Dette er en gjentakelse av hva vi så for noen år siden med implementeringen av Den generelle personvernforordningen (GDPR) – selskaper som bygde inn privatliv-sikkerhet tidlig unngikk ikke bare bøter, men fikk også forbrukertillit og smidigere tilgang til andre markeder som senere speilet GDPR-standarden.
Den samme mønsteren kan være i ferd med å oppstå med AI. Sporbarhet av treningdata og modell-beslutninger vil sannsynligvis bli en global basis, og selskaper som forsinker vil måtte redesigne sine systemer i fremtiden. Å gå tilbake for å legge til dokumentasjon, proveniens-sporing og revisjonsfunksjoner i et eksisterende system er langt mer dyrt og komplekst enn å bygge dem inn fra starten, og tar fokus vekk fra mer ROI-fokusert bygging som selskapet ønsker å fullføre.
Med andre ord, er sporbarhet og transparens ikke valgfrie tilføyelser; de må være innbygget i AI-systemer fra dag én. Bedrifter som behandler dem som ettertanker risikerer å stanse innovasjon, møte regulativt bakslag og tape konkurransen uendelig.
Etisk AI trenger global enhet
Fra et makro-perspektiv, skaper disse polariserte tilnærmingene et reelt problem for globale bedrifter. Selskaper i lettere-markeder som US kan skale raskere på kort sikt, men når de bestemmer seg for å gå inn i EU, møter de en kompatibilitetsmur: AI-lovens sporbarhets- og dokumentasjonsregler krever evner de aldri bygde.
Å tilpasse proveniens-sporing, dokumentasjon og revisjonsfunksjoner i et eksisterende system er kostbart, tregt og forstyrrende, særlig fordi sporbarhet er en av de mest ressurskrevende delene av overholdelse. Det er det samme mønsteret vi så med GDPR, hvor senkommere til privatliv-sikkerhet kjempet med dyre ombygginger og forsinket markedsadgang, mens tidlige bevegere fikk en varig fordelt.












