Connect with us

De Nieuwe GPAI-Sjabloon van de Europese Commissie – Wat Betekent Dit voor AI-Training?

Thought leaders

De Nieuwe GPAI-Sjabloon van de Europese Commissie – Wat Betekent Dit voor AI-Training?

mm

In juli heeft de Europese Commissie (EC) een nieuwe general-purpose artificial intelligence (GPAI) sjabloon uitgebracht. Dit betekent dat AI-aanbieders de inhoud moeten onthullen die in de modellen is ingevoerd om deze te trainen. Dit gebeurt na maanden van koppen over creators die beweren dat inhoud zonder toestemming is gebruikt om AI te trainen.

Met deze nieuwe sjabloon heeft de EU haar positie duidelijk gemaakt: transparantie is nu niet meer onderhandelbaar. Black box-training, waarbij iets wordt gecreëerd zonder de interne werking te onthullen, is geen optie meer voor AI-ontwikkelaars. Dit markeert een significante verschuiving, aangezien opereren in Europa nu volledige zichtbaarheid van modelinputs en trainingsgegevens vereist, waardoor een herbeoordeling van gegevensverzameling en -gebruik noodzakelijk is.

Veel mensen hebben de scherpe tegenstelling tussen deze en het onlangs uitgebrachte US AI Action Plan opgemerkt, dat zich sterk richt op deregulering. Net als bij elke nieuwe wet of regelgeving, moeten bedrijven nu inventariseren en beoordelen hoe de GPAI-sjabloon hun operaties zal beïnvloeden.

Als ze in meerdere regio’s opereren, zullen ze hetzelfde doen met het US AI Action Plan, waardoor de situatie nog verwarrender wordt. Vanwege de complexe aard van deze en het feit dat het reguleren van AI-ontwikkeling op deze manier onontgonnen terrein is, zullen de uitvoer van ontwikkelaars waarschijnlijk sterk verschillen.

De Algemene AI-Model Sjabloon Ontleden

In juli van dit jaar heeft de Europese Commissie een verplichte sjabloon voor GPAI-aanbieders gepubliceerd, zodat ze een openbare samenvatting van de gegevens kunnen publiceren die zijn gebruikt om hun modellen te trainen. Als onderdeel van de EU AI-wet moeten aanbieders gegevenscategorieën zoals openbaar beschikbare datasets, privé gelicenceerde gegevens, webinhoud, gebruikersgegevens en synthetische gegevens onthullen. Het doel is om auteursrechthouders, gebruikers en downstream-ontwikkelaars in staat te stellen hun wettelijke rechten uit te oefenen onder EU-wetgeving.

GPT’s worden getraind met grote hoeveelheden gegevens; echter is er in de huidige markt beperkte informatie beschikbaar over de herkomst van deze gegevens. De openbare samenvatting die deze sjabloon beschrijft, zal een uitgebreide overzicht geven van de gegevens die zijn gebruikt om een model te trainen, de belangrijkste gegevensverzamelingen opsommen en andere gebruikte bronnen uitleggen.

Vergelijk en Contrast, US AI Action Plan

In vergelijking hiermee is de VS ervan overtuigd dat ze de AI-race zullen winnen en hun concurrentievoordeel boven China zullen behouden, aangezien de Trump-administratie eerder deze zomer haar AI Action Plan heeft aangekondigd. Dit nieuwe AI-kader heeft tot doel de bouw van energie-intensieve datacentra die AI-systemen aandrijven te versnellen door milieureglementeringen te versoepelen. Tegelijkertijd probeert het de wereldwijde export van Amerikaanse AI-technologieën te verhogen. Met 90 aanbevelingen weerspiegelt het plan de groeiende inspanningen van de VS om voorop te blijven lopen in de wereld.

Het plan is gebouwd rond drie kernpijlers – innovatie versnellen, Amerika’s AI-infrastructuur opbouwen en leiderschap in internationale AI-diplomatie en -beveiliging bevorderen.

Als onderdeel hiervan benadrukt een belangrijke conclusie uit het plan hoe de Amerikaanse regering ‘ het goede voorbeeld ‘ zal geven als het gaat om AI-groei – door training, talentuitwisselingen en de uitbreiding van adoptie in verschillende branches.

Met dit plan beoogt de VS alle huidige technologie-reglementeringen te stroomlijnen, met name milieureglementeringen, om ervoor te zorgen dat wetgeving de groei niet vertraagt, en tegelijkertijd de wereldwijde distributie van Amerikaanse AI-software en -hardware te bevorderen. Deze ‘anti-regulerings’ benadering markeert een duidelijke verschuiving van eerdere kaders die zich richtten op ethiek, transparantie en verantwoorde innovatie – en beweegt zich in de richting van een meer agressieve ‘innovatie eerst’ actieplan.

Het Ontbrekende Stuk

Het is de moeite waard om op dit punt een stap terug te doen en te overwegen of deze handelingen, hoewel verschillend, kunnen lijden aan dezelfde fouten die ontwikkelaars ertoe zullen brengen om weinig waarde te hechten aan het naleven ervan. De EU- en VS-benaderingen laten een kritische kloof achter rond intellectueel eigendom in AI-trainingsdatasets. De EU AI-wet vereist trainingsgegevenssamenvattingen en een auteursrechtbeleid, maar stelt geen schaalbaar kader in voor het identificeren of licentiëren van auteursrechtelijk beschermd werk.

In de VS bestaan er geen specifieke regels – waardoor AI-bedrijven een evoluerend juridisch kader moeten navigeren dat wordt gevormd door rechterlijke uitspraken en lopende geschillen met rechthebbenden. Voorbij de juridische tekst ontbreekt het praktische aspect; geen van beide benaderingen biedt werkbare, breed toegepaste methoden voor het detecteren van beschermd materiaal op grote schaal, het verifiëren van wettig gebruik of het stroomlijnen van licenties. Totdat dergelijke oplossingen zijn gedefinieerd, zal de onzekerheid rond auteursrecht in AI-training een aanzienlijke uitdaging voor de industrie blijven.

De Verborgen Kosten van Bedrijven die AI-Traceerbaarheid Overslaan

Ondanks enkele van de fouten in deze reglementeringen, zal worden aangenomen dat ze AI-ontwikkelaars ertoe zullen brengen om zich sterk te concentreren op hoe ze legaal kunnen blijven – maar dat is niet altijd het geval. In feite is de echte kloof in AI op dit moment niet tussen EU- en VS-reglementering, maar tussen bedrijven die vandaag in traceerbaarheid investeren en diegenen die erop gokken dat ze het niet hoeven te doen. Dit is een herhaling van wat we jaren geleden zagen met de implementatie van de Algemene Verordening Gegevensbescherming (AVG) – bedrijven die vroeg privacy-by-design bouwden, vermeiden niet alleen boetes maar verkregen ook consumentenvertrouwen en soepeler toegang tot andere markten die later AVG-standaarden nabootsten.

Hetzelfde patroon kan zich nu voordoen met AI. Traceerbaarheid van trainingsgegevens en modelbeslissingen zal waarschijnlijk een wereldwijde basislijn worden, en bedrijven die dit uitstellen, moeten hun systemen in de toekomst opnieuw ontwerpen. Terugkeren om documentatie, herkomstvolging en auditfuncties toe te voegen aan een bestaand systeem is veel duurder en complexer dan ze vanaf het begin op te bouwen, waardoor de focus wordt afgeleid van meer rendabele uitbreidingen die het bedrijf wil voltooien.

Met andere woorden, traceerbaarheid en transparantie zijn geen optionele toevoegingen; ze moeten vanaf het begin in AI-systemen worden ingebed. Bedrijven die ze als een bijzaak behandelen, riskeren innovatie te vertragen, regulatorische backlash te krijgen en de race definitief te verliezen.

Ethische AI Heeft Globale Eenheid Nodig

Vanuit een macro-perspectief creëren deze gepolariseerde benaderingen een echt probleem voor wereldwijde bedrijven. Bedrijven in lichtere markten zoals de VS kunnen zich in de korte termijn sneller ontwikkelen, maar wanneer ze besluiten de EU te betreden, komen ze een compliance-muur tegen: de AI-wetgeving vereist traceerbaarheids- en documentatie-regels die capaciteiten vereisen die ze nooit hebben opgebouwd.

Het retrofitten van herkomstvolging, documentatie en auditfuncties in een bestaand systeem is duur, langzaam en verstorend, vooral omdat traceerbaarheid een van de meest hulpbronnen-intensieve delen van compliance is. Het is hetzelfde patroon dat we zagen met de AVG, waar laatkomers bij privacy-by-design worstelden met dure overhauls en vertraagde markttoegang, terwijl vroege starters een duurzaam voordeel behaalden.

Viktorija Lapenyte is de Head of Product Legal Counsel bij Oxylabs. Met meer dan een decennium aan juridische ervaring in de IT-sector, heeft Viktorija Lapėnytė diepgaande expertise ontwikkeld in het navigeren door complexe zakelijke en regelgevingsuitdagingen als in-house juridisch adviseur. Vandaag is Viktorija de Head of Product Legal Counsel bij Oxylabs, een marktleidende webintelligentiecollectieplatform. Het team van Viktorija specialiseert zich in de juridische complexiteiten van opkomende datatechnologieën, van compliance en regelgevingsrisicobeheer tot gegevensbescherming en bredere discussies in de industrie over verantwoorde gegevensverwerving.