Connect with us

Thought leaders

Hoeveel Impact Heeft de EU AI-wet Echt op Uw Bedrijf?

mm

Nu nieuwe bepalingen van kracht worden, hier is wat bedrijven echt moeten weten over naleving

2 februari 2025 markeerde de eerste belangrijke mijlpaal in de implementatie van de AI-wet van de Europese Unie, met bepalingen die verboden AI-praktijken verbieden en organisaties verplichten om ervoor te zorgen dat hun personeel voldoende kennis, vaardigheden en begrip heeft over hoe AI werkt, de risico’s en de voordelen (AI-geletterdheid). Nu vertegenwoordigt 2 augustus 2025 een andere kritieke keerpunt, aangezien verplichtingen voor Algemene Doel AI-modellen zijn ingegaan.

De AI-wet is van toepassing op diegenen die AI-systemen of Algemene Doel AI-modellen in de EU verkopen, importeren of beschikbaar stellen, of ze nu in de EU zijn gevestigd of niet. Het is ook van toepassing op bedrijven die in de EU zijn gevestigd en die AI-systemen of -modellen gebruiken.

Terwijl bedrijven echt bezorgd zijn over AI-naleving verplichtingen, zal de realiteit voor de meeste bedrijven minder dramatisch zijn dan de bepalingen op het eerste gezicht lijken.

Als iemand die een wereldwijd bedrijf runt dat AI uitgebreid gebruikt in ons documentbeheerplatform, moest ik deze regelgeving zelf navigeren. De waarheid is dat voor de overgrote meerderheid van de bedrijven de AI-wet veel beheersbaarder is dan hij aanvankelijk lijkt – vergelijkbaar met hoe GDPR vanuit een Amerikaans perspectief overweldigend leek, maar eenmaal je de principes begreep, werkte.

Maar in tegenstelling tot de enkele implementatiedatum van GDPR, wordt de AI-wet gefaseerd geïmplementeerd. Met boetes tot €35 miljoen of 7% van de wereldwijde omzet, en één kritieke handhavingsgolf net achter ons en een andere belangrijke deadline voor de deur, is het cruciaal om uw nalevingsstrategie goed te krijgen.

Waar We Op De Tijdlijn Zitten

Per augustus 2025 zijn de verplichtingen voor Algemene Doel AI (GPAI)-modellen nu van kracht – en dit heeft invloed op veel meer bedrijven dan de meeste zich realiseren. Als u foundation-modellen zoals GPT-5, Claude of Llama in uw producten gebruikt, kunt u nalevingsverplichtingen erven, zelfs als u zichzelf alleen maar als “gebruiker” van het model beschouwt.

De verplichtingen omvatten het aantonen van naleving van auteursrechtwetgeving in trainingsdata, het uitvoeren van adversarial testing voor beveiligingskwetsbaarheden, het implementeren van robuuste beveiligingsmaatregelen en het verstrekken van gedetailleerde technische documentatie over modelmogelijkheden en -beperkingen.

Veel SaaS-bedrijven gaan ervan uit dat ze zijn vrijgesteld omdat ze modellen niet van scratch ontwikkelen. Maar als u bepaalde modellen fine-tuned of anderszins wijzigt, kunt u zichzelf onder de GPAI-verplichtingen vinden. De grens tussen “gebruiken” en “verstrekken” van AI-systemen is in de regelgeving opzettelijk breed.

2 augustus 2026 is de grote mijlpaal om in de gaten te houden. Uiterlijk deze datum moeten AI-systemen die als “hoogrisico” zijn geclassificeerd, uitgebreide nalevingsvereisten naleven. De reikwijdte is breder dan veel bedrijven verwachten, en de verplichtingen zijn aanzienlijk.

Hoogrisicoclassificaties omvatten systemen die worden gebruikt voor werving en selectie, kredietbeoordeling en financiële beslissingen, onderwijsbeoordeling, medische diagnose, veiligheidskritieke infrastructuur en rechtshandhavingsapplicaties. Als uw AI-hulpmiddel helpt bij het bepalen wie wordt aangenomen, goedgekeurd voor leningen, toegelaten tot programma’s of gediagnosticeerd met aandoeningen, valt u waarschijnlijk binnen de reikwijdte.

Er komt een last bij kijken. U hebt uitgebreide risicobeheerssystemen met voortdurende monitoring nodig, technische documentatie die de veiligheid en betrouwbaarheid van uw systeem aantoont, gegevenskwaliteitsnormen met auditable bewijs van integriteit van trainingsdata, automatische logging van alle systeembeslissingen en -bewerkingen, zinvolle menselijke toezicht met de mogelijkheid om in real-time in te grijpen, en CE-markering met derdepartijconformiteitsbeoordeling.

Dit gaat niet alleen om het toevoegen van een disclaimer aan uw website. Hoogrisicosystemen vereisen het soort kwaliteitsmanagementsystemen die typisch worden aangetroffen in de productie van medische hulpmiddelen of veiligheidssystemen voor auto’s.

Het Begrijpen van de Risicocategorieën

De AI-wet werkt op basis van een vierlaags, risicogebaseerde aanpak die meer nuanceren is dan veel mensen beseffen.

  • Onaanvaardbaar Risico (Verboden): Deze AI-toepassingen zijn volledig verboden – sociale scoresystemen, manipulatieve AI die kwetsbare groepen als doelwit heeft, real-time biometrische identificatie in openbare ruimtes (met beperkte uitzonderingen voor rechtshandhaving), en emotieherkenning op werkplekken of scholen.
  • Hoog Risico (Zwaar Gereguleerd, Maar Toegestaan): Dit is waar veel bedrijven worden overvallen. Zoals eerder vermeld, omvatten hoogrisicotoepassingen hulpmiddelen voor het screenen van cv’s en selectie, kredietbeoordeling en hypotheekondersteuningsystemen, medische diagnostische apparaten, veiligheidssystemen in transport (autonome voertuigen, verkeersbeheer), onderwijsbeoordelingshulpmiddelen, rechtshandhavingsapplicaties en kritieke infrastructuurbeheer.
  • Beperkt Risico (Transparantie Vereist): deze systemen hebben voornamelijk te maken met AI die rechtstreeks met mensen interacteert of inhoud genereert die voor menselijk gegenereerde materiaal kan worden aangezien. Dit omvat chatbots, virtuele assistenten en AI-systemen die synthetische media zoals deepfakes of gemanipuleerde afbeeldingen en video’s creëren. Voor deze toepassingen is de belangrijkste regelgevingsvereiste transparantie – gebruikers moeten duidelijk worden geïnformeerd wanneer ze met een AI-systeem in plaats van een mens interactie hebben, of wanneer inhoud kunstmatig is gegenereerd.
  • Minimaal Risico: De meerderheid van de AI-toepassingen valt in de categorie minimaal risico, die systemen omvat die weinig bedreiging vormen voor fundamentele rechten of veiligheid. Deze omvatten algemene bedrijfshulpmiddelen zoals spamfilters, voorraadbeheerssystemen, basisanalyseplatforms, aanbevelingsmotoren voor inhoud of producten en geautomatiseerde klantenservicerouting. Voor minimaal risicosystemen zijn er in wezen geen specifieke regelgevingsverplichtingen onder de AI-wet, behalve algemene vereisten zoals AI-geletterdheid voor personeel.

Als u in de categorie “Onaanvaardbaar of Hoog Risico” valt, is transparantie alleen niet voldoende. Als u elders valt, zijn de nalevingsvereisten beheersbaar.

Het Foundation Model Ripple Effect

De GPAI-deadline van 2 augustus 2025 die net is verstreken, verdient speciale aandacht omdat deze een ripple effect door het hele AI-ecosysteem creëert. Foundation model providers zoals OpenAI, Anthropic en Meta moesten nieuwe nalevingsmaatregelen implementeren, en die vereisten stromen door naar hun enterprise-klanten.

Als u bovenop deze modellen bouwt, moet u de nalevingshouding van uw provider begrijpen en hoe deze uw eigen verplichtingen beïnvloedt. Sommige model providers kunnen bepaalde use cases beperken, anderen kunnen nalevingskosten doorberekenen in de vorm van hogere prijzen of nieuwe servicetarieven.

Bedrijven moeten hun AI-leveranciersketen nu auditen als ze dat nog niet hebben gedaan. Documenteer welke modellen u gebruikt, hoe u ze aanpast en welke gegevens er doorheen stromen. Deze voorraad zal cruciaal zijn voor het begrijpen van uw huidige GPAI-verplichtingen en het voorbereiden op de 2026 hoogrisicosysteemvereisten.

De Bocht Vooruit

De AI-wet vertegenwoordigt de werelds eerste uitgebreide AI-regelgeving, en we zitten nu in het midden van de gefaseerde implementatie. Met GPAI-verplichtingen nu van kracht en de belangrijke hoogrisicosysteemdeadline die in augustus 2026 nadert, zijn bedrijven die GDPR als een last zagen de kans gemist om privacy om te zetten in een differentiator. Maak dezelfde fout niet met AI-governance.

De bedrijven die het meest zullen worstelen, zijn diegenen die onvoorbereid worden betrapt wanneer de handhaving intensifieert. Diegenen die verantwoordelijk bouwen vandaag, zullen ontdekken dat naleving hun AI-strategie versterkt in plaats van hinderlijk te zijn. Er is nog tijd om de bocht vooruit te zijn – maar het venster sluit snel.

Stéphan Donzé is de oprichter en CEO van AODocs, een softwarebedrijf dat hij heeft opgericht vanuit het idee dat de behoefte van ondernemingen aan compliance en efficiënte processen niet in strijd is met een goede gebruikerservaring. Voordat hij AODocs oprichtte, was hij VP of Engineering bij Exalead, een toonaangevend bedrijf in enterprise search. Na de overname van Exalead door Dassault Systèmes in 2010, verhuisde hij van Parijs naar Californië als VP of Product Strategy. Stéphane heeft een masterdiploma in software engineering van de École Polytechnique in Frankrijk (X96). Met 18 jaar ervaring in enterprise software is hij gepassioneerd over gebruikerservaring binnen een organisatie.