Anslut dig till vÄrt nÀtverk!

Tanke ledare

Europeiska kommissionens nya GPAI-mall – Vad innebĂ€r detta för AI-utbildning?

mm

I juli slÀppte Europeiska kommissionen (EG) en ny allmÀnt ÀndamÄl artificiell intelligens (GPAI) mall. Detta innebÀr att AI-leverantörer mÄste avslöja innehÄllet som matas in i modellerna för att trÀna dem. Detta kommer efter mÄnader av rubriker om skapare pÄstÄs ha anvÀnts utan samtycke för att trÀna AI.

Med den hÀr nya mallen har EU tydliggjort sin stÄndpunkt: transparens Àr nu inte förhandlingsbart. Black box-utbildning, dÀr nÄgot skapas utan att dess inre funktioner avslöjas, kommer inte att vara ett alternativ för AI-utvecklare. Detta markerar ett betydande skifte eftersom verksamhet i Europa nu kommer att krÀva fullstÀndig insyn i modellindata och utbildningsdatas ursprung, vilket tvingar fram en omvÀrdering av datainsamling och anvÀndning.

MÄnga har pÄpekat den tydliga skillnaden mellan detta och det nyligen slÀppta USA:s AI-handlingsplan, som i hög grad fokuserar pÄ avreglering. Precis som med alla nya lagar eller förordningar mÄste företag nu utvÀrdera och bedöma exakt hur GPAI-mallen kommer att pÄverka verksamheten.

Om de verkar över flera regioner kommer de att göra detsamma med den amerikanska AI-handlingsplanen, vilket ytterligare förvirrar saker och ting. PÄ grund av dessas komplexa natur och det faktum att reglering av AI-utveckling pÄ detta sÀtt Àr outforskat territorium, kommer utvecklarnas resultat sannolikt att variera kraftigt.

Dissekera den allmÀnna AI-modellmallen

I juli i Är publicerade Europeiska kommissionen en obligatorisk mall för GPAI-leverantörer sÄ att de kan publicera en offentlig sammanfattning av de data som anvÀnds för att trÀna sina modeller. Som en del av EU:s AI-lag mÄste leverantörer offentliggöra datakategorier som offentligt tillgÀngliga datamÀngder, privat licensierad data, skrapat webbinnehÄll, anvÀndardata och syntetisk data. Syftet Àr att göra det möjligt för upphovsrÀttsinnehavare, anvÀndare och utvecklare i efterhand att utöva sina juridiska rÀttigheter enligt EU-lagstiftningen.

GPT:er trÀnas med stora mÀngder data; pÄ den nuvarande marknaden finns det dock begrÀnsad information tillgÀnglig om ursprunget till dessa data. Den offentliga sammanfattningen som denna mall innehÄller kommer att ge en omfattande översikt över de data som anvÀnds för att trÀna en modell, lista de viktigaste datasamlingarna och förklara andra kÀllor som anvÀnts.

JÀmför och kontrastera, USA:s AI-handlingsplan

I jÀmförelse, USA Àr orubbliga Det kommer att vinna AI-kapplöpningen och behÄlla sin konkurrensfördel gentemot Kina, vilket Trump-administrationen tillkÀnnagav sin AI-handlingsplan tidigare i somras. Detta nya AI-ramverk syftar till att pÄskynda byggandet av energiintensiva datacenter som driver AI-system genom att lÀtta pÄ miljöreglerna. Samtidigt syftar det till att öka den globala exporten av amerikansk AI-teknik. Med 90 rekommendationer Äterspeglar planen USA:s vÀxande anstrÀngningar att ligga steget före sina globala konkurrenter.

Planen Ă€r uppbyggd kring tre kĂ€rnpelare – att accelerera innovation, bygga Amerikas AI-infrastruktur och frĂ€mja ledarskap inom internationell AI-diplomati och sĂ€kerhet.

Som en del av detta lyfte en viktig slutsats frĂ„n planen fram Amerikas strĂ€van efter "öppen kĂ€llkod" för att frĂ€mja bĂ„de innovation och tillgĂ€nglighet. PĂ„ liknande sĂ€tt belyser planen hur den amerikanska regeringen kommer att "föregĂ„ med gott exempel' nĂ€r det gĂ€ller AI-tillvĂ€xt – genom utbildning, talangutbyten och utökad anvĂ€ndning inom olika branscher.

Med denna plan strĂ€var USA efter att effektivisera alla sina nuvarande teknikregleringar, sĂ€rskilt miljöregleringar, för att sĂ€kerstĂ€lla att lagstiftningen inte hĂ€mmar tillvĂ€xten, samtidigt som man uppmuntrar till bredare internationell distribution av amerikansk AI-programvara och hĂ„rdvara. Denna "anti-reglerande" strategi markerar ett tydligt skifte frĂ„n tidigare ramverk som fokuserade pĂ„ etik, transparens och ansvarsfull innovation – istĂ€llet gĂ„r man mot en mer aggressiv handlingsplan "innovation först".

Den saknade delen

Det Àr vÀrt att ta ett steg tillbaka i detta skede och övervÀga om dessa lagar, Àven om de Àr olika, kan lida av samma brister som gör att utvecklare ser ett bristande vÀrde i att följa dem. EU:s och USA:s tillvÀgagÄngssÀtt lÀmnar ett kritiskt gap kring immateriella rÀttigheter i AI-utbildningsdataset. EU:s AI-lag föreskriver sammanfattningar av utbildningsdata och en policy för efterlevnad av upphovsrÀtt, men den etablerar inte ett skalbart ramverk för att identifiera eller licensiera upphovsrÀttsskyddade verk.

I USA finns inga specifika regler alls – vilket innebĂ€r att AI-företag mĂ„ste navigera i ett förĂ€nderligt rĂ€ttsligt ramverk som formas av domstolsbeslut och pĂ„gĂ„ende tvister med rĂ€ttighetsinnehavare. Utöver den lagliga texten saknas den praktiska sidan; ingen av metoderna anger fungerande, branschövergripande metoder för att upptĂ€cka skyddat innehĂ„ll i stor skala, verifiera laglig anvĂ€ndning eller effektivisera licensiering. Tills sĂ„dana lösningar har definierats kommer osĂ€kerhet kring upphovsrĂ€tt inom AI-utbildning att förbli en betydande utmaning för branschen.

Den dolda kostnaden för företag som hoppar över AI-spÄrbarhet

Trots vissa brister i dessa regleringar antas det att de kommer att fĂ„ AI-utvecklare att bli mycket fokuserade pĂ„ hur de ska hĂ„lla sig flytande ur ett juridiskt perspektiv – men sĂ„ Ă€r inte alltid fallet. Faktum Ă€r att den verkliga skillnaden inom AI just nu inte ligger mellan EU:s och USA:s reglering, utan mellan företag som investerar i spĂ„rbarhet idag och de som tror att de inte behöver det. Detta Ă€r en upprepning av vad vi sĂ„g för flera Ă„r sedan med implementeringen av den allmĂ€nna dataskyddsförordningen (GDPR) – företag som tidigt byggde inbyggd integritet undvek inte bara böter utan fick Ă€ven konsumenternas förtroende och smidigare tillgĂ„ng till andra marknader som senare speglade GDPR-standarder.

Samma mönster kan framtrÀda med AI. SpÄrbarhet av trÀningsdata och modellbeslut kommer sannolikt att bli en global baslinje, och företag som dröjer med det kommer att behöva omdesigna sina system i framtiden. Att gÄ tillbaka och lÀgga till dokumentation, spÄrning av ursprung och revisionsfunktioner i ett befintligt system Àr mycket dyrare och mer komplext Àn att bygga in dem frÄn början, vilket tar fokus bort frÄn mer ROI-fokuserade utbyggnader som företaget vill slutföra.

Med andra ord Àr spÄrbarhet och transparens inte valfria tillÀgg; de mÄste integreras i AI-system frÄn dag ett. Företag som behandlar dem som eftertanke riskerar att stoppa innovation, möta regulatoriska motreaktioner och förlora loppet pÄ obestÀmd tid.

Etisk AI behöver global enighet

Ur ett makroperspektiv skapar dessa polariserade tillvÀgagÄngssÀtt ett verkligt problem för globala företag. Företag pÄ lÀttare marknader som USA kan skala upp snabbare pÄ kort sikt, men nÀr de bestÀmmer sig för att gÄ med i EU stÄr de inför en efterlevnadsmur: AI-lagens spÄrbarhets- och dokumentationsregler krÀver kapacitet som de aldrig byggt upp.

Att eftermontera funktioner för spÄrning av ursprung, dokumentation och revision i ett befintligt system Àr kostsamt, lÄngsamt och störande, sÀrskilt eftersom spÄrbarhet Àr en av de mest resurskrÀvande delarna av efterlevnad. Det Àr samma mönster som vi sÄg med GDPR, dÀr de som kom sent till inbyggd integritet kÀmpade med dyra översyner och försenat marknadstilltrÀde, medan de som kom tidigt fick en bestÄende fördel.

Viktorija Lapenyte Ă€r chef för produktjurist pĂ„ oxylabsMed över ett decennium av juridisk erfarenhet inom IT-sektorn har Viktorija Lapėnytė utvecklat djup expertis inom att navigera komplexa affĂ€rs- och regulatoriska utmaningar som intern juridisk rĂ„dgivare. Idag Ă€r Viktorija chef för produktjurist pĂ„ Oxylabs, en marknadsledande plattform för insamling av webbinformation. Viktorijas team specialiserar sig pĂ„ de juridiska komplexiteterna kring nya datatekniker, frĂ„n efterlevnad och regulatorisk riskhantering till dataskydd och branschövergripande diskussioner om ansvarsfull datainsamling.