Verbind je met ons

Gedachte leiders

De balans vinden: wereldwijde benaderingen voor het beperken van AI-gerelateerde risico's

mm

Het is geen geheim dat moderne technologieën de afgelopen jaren ethische grenzen hebben overschreden binnen bestaande juridische kaders die daar niet op zijn afgestemd, wat heeft geleid tot juridische en regelgevende mijnenvelden. Om de gevolgen hiervan te bestrijden, kiezen toezichthouders ervoor om op verschillende manieren te werk te gaan tussen landen en regio's, waardoor de wereldwijde spanningen toenemen wanneer er geen overeenstemming kan worden bereikt.

Deze verschillen in regelgeving werden benadrukt tijdens een recente AI Action Summit in Parijs. slotverklaring Het evenement richtte zich op inclusiviteit en openheid in de ontwikkeling van AI. Interessant genoeg werd veiligheid en betrouwbaarheid slechts in brede zin genoemd, zonder specifieke AI-gerelateerde risico's, zoals veiligheidsrisico's, te benadrukken. Het werd opgesteld door 60 landen. het VK en de VS ontbraken opvallend genoeg in de handtekeningen onder de verklaring, wat aantoont hoe weinig consensus er op dit moment is in de belangrijkste landen.

Wereldwijde aanpak van AI-risico's

De ontwikkeling en inzet van AI wordt in elk land anders gereguleerd. Toch bevinden de meeste zich ergens tussen de twee uitersten in: de standpunten van de Verenigde Staten en de Europese Unie (EU).

De Amerikaanse manier: eerst innoveren, dan reguleren

In de Verenigde Staten zijn er geen federale wetten die AI specifiek reguleren; in plaats daarvan vertrouwt AI op marktgebaseerde oplossingen en vrijwillige richtlijnen. Er bestaan ​​echter wel enkele belangrijke wetten voor AI, waaronder de National AI Initiative Act, die tot doel heeft federaal AI-onderzoek te coördineren, de Federal Aviation Administration Reauthorisation Act en het vrijwillige risicomanagementkader van het National Institute of Standards and Technology (NIST).

Het Amerikaanse regelgevingslandschap blijft flexibel en onderhevig aan grote politieke verschuivingen. Zo gaf president Biden in oktober 2023 een Uitvoerend besluit over veilige, beveiligde en betrouwbare kunstmatige intelligentie, het invoeren van standaarden voor kritieke infrastructuur, het verbeteren van AI-gestuurde cyberbeveiliging en het reguleren van federaal gefinancierde AI-projecten. In januari 2025 echter, president Trump heeft dit uitvoerend bevel ingetrokken, om de focus te verleggen van regelgeving naar het prioriteren van innovatie.

De Amerikaanse aanpak kent critici. Zij merken op dat de “versnipperde natuur“leidt tot een complex web van regels dat “ontbreken afdwingbare normen,” en heeft “hiaten in de privacybescherming.” Het standpunt als geheel is echter in beweging – in 2024 hebben de wetgevers van de staat een wet ingevoerd bijna 700 nieuwe AI-wetgevingen en er zijn geweest meerdere hoorzittingen over AI in bestuur, en over AI en intellectueel eigendom. Hoewel het duidelijk is dat de Amerikaanse overheid regelgeving niet schuwt, zoekt ze duidelijk naar manieren om deze te implementeren zonder innovatie in gevaar te brengen.

De EU-manier: prioriteit geven aan preventie

De EU heeft voor een andere aanpak gekozen. In augustus 2024 introduceerden het Europees Parlement en de Raad de Wet kunstmatige intelligentie (AI-wet), die algemeen wordt beschouwd als de meest uitgebreide AI-regelgeving tot nu toe. Door een risicogebaseerde benadering te hanteren, legt de wet strikte regels op aan zeer gevoelige AI-systemen, bijvoorbeeld die welke worden gebruikt in de gezondheidszorg en kritieke infrastructuur. Toepassingen met een laag risico worden slechts minimaal gecontroleerd, terwijl in sommige toepassingen, zoals door de overheid beheerde sociale scoresystemen, deze volledig verboden zijn.

In de EU is naleving niet alleen binnen de EU-grenzen verplicht, maar ook voor elke leverancier, distributeur of gebruiker van AI-systemen die in de EU actief is of AI-oplossingen op de markt brengt – zelfs als het systeem buiten de EU is ontwikkeld. Dit zal waarschijnlijk uitdagingen opleveren voor Amerikaanse en andere niet-EU-aanbieders van geïntegreerde producten, aangezien zij zich moeten aanpassen.

Kritiek op de aanpak van de EU omvat onder meer de vermeende het niet vaststellen van een gouden standaard voor mensenrechten. Overmatige complexiteit is ook opgemerkt, samen met een gebrek aan duidelijkheid. Critici maken zich zorgen over de EU zeer veeleisende technische eisen, omdat ze plaatsvinden op een moment dat de EU haar concurrentievermogen wil versterken.

Het vinden van de regelgevende middenweg

Ondertussen heeft het Verenigd Koninkrijk een "lichtgewicht" kader aangenomen dat zich ergens tussen de EU en de VS bevindt en gebaseerd is op kernwaarden zoals veiligheid, eerlijkheid en transparantie. Bestaande toezichthouders, zoals het Bureau van de Informatiecommissaris, hebben de bevoegdheid om deze principes binnen hun respectieve domeinen te implementeren.

De Britse overheid heeft een AI Opportunities Action Plan gepubliceerd, met daarin maatregelen om te investeren in AI-fundamenten, de cross-economy-implementatie van AI te implementeren en "eigen" AI-systemen te bevorderen. In november 2023 richtte het Verenigd Koninkrijk het AI Veiligheidsinstituut (AISI), voortgekomen uit de Frontier AI Taskforce. AISI is opgericht om de veiligheid van geavanceerde AI-modellen te evalueren, in samenwerking met grote ontwikkelaars om dit te bereiken door middel van veiligheidstests.

Kritiek op de Britse aanpak van AI-regulering omvat echter onder meer: beperkte handhavingsmogelijkheden en gebrek aan coordinatie tussen sectorale wetgeving. Critici constateerden ook het gebrek aan een centrale toezichthoudende instantie.

Net als het Verenigd Koninkrijk hebben ook andere grote landen hun eigen plek op het spectrum tussen de VS en de EU gevonden. Zo heeft Canada een risicogebaseerde benadering geïntroduceerd met de voorgestelde AI and Data Act (AIDA), die is ontworpen om een ​​evenwicht te vinden tussen innovatie, veiligheid en ethische overwegingen. Japan heeft een "mensgerichte" benadering van AI aangenomen door richtlijnen te publiceren die een betrouwbare ontwikkeling bevorderen. In China wordt de AI-regelgeving strak gecontroleerd door de staat, met recente wetten die vereisen dat generatieve AI-modellen beveiligingsbeoordelingen ondergaan en aansluiten bij socialistische waarden. Net als het Verenigd Koninkrijk heeft Australië een ethisch kader voor AI gepubliceerd en onderzoekt het de mogelijkheid om zijn privacywetgeving te actualiseren om de nieuwe uitdagingen van AI-innovatie aan te pakken.

Hoe brengen we internationale samenwerking tot stand?

Naarmate AI-technologie zich verder ontwikkelt, worden de verschillen tussen regelgevende benaderingen steeds duidelijker. Elke afzonderlijke benadering met betrekking tot gegevensprivacy, auteursrechtbescherming en andere aspecten maakt het moeilijker om een ​​coherente wereldwijde consensus te bereiken over de belangrijkste AI-gerelateerde risico's. In deze omstandigheden is internationale samenwerking cruciaal om basisnormen vast te stellen die de belangrijkste risico's aanpakken zonder innovatie te beperken.

Het antwoord op internationale samenwerking zou kunnen liggen bij wereldwijde organisaties zoals de Organisatie voor Economische Samenwerking en Ontwikkeling (OESO), de Verenigde Naties en diverse andere, die momenteel werken aan het vaststellen van internationale standaarden en ethische richtlijnen voor AI. De weg vooruit zal niet eenvoudig zijn, omdat iedereen in de sector een gemeenschappelijke basis moet vinden. Als we bedenken dat innovatie razendsnel gaat, is het nu tijd om te discussiëren en overeenstemming te bereiken.

Viktorija Lapenyte is hoofd van de productjuridische raad bij oxylabsMet meer dan tien jaar juridische ervaring in de IT-sector heeft Viktorija Lapėnytė diepgaande expertise ontwikkeld in het navigeren door complexe zakelijke en wettelijke uitdagingen als bedrijfsjurist. Tegenwoordig is Viktorija hoofd van de productjurist bij Oxylabs, een toonaangevend platform voor het verzamelen van webinformatie. Viktorija's team is gespecialiseerd in de juridische complexiteit van opkomende datatechnologieën, van compliance en risicomanagement op het gebied van regelgeving tot dataprivacy en sectorbrede discussies over verantwoorde dataverzameling.