Connect with us

Thought leaders

Het vinden van een balans: mondiale benaderingen voor het mitigeren van AI-gerelateerde risico’s

mm

Het is geen geheim dat moderne technologieën de afgelopen jaren ethische grenzen hebben verlegd onder bestaande juridische kaders die niet voor hen zijn gemaakt, waardoor juridische en regelgevende mijnenvelden ontstaan. Om de effecten hiervan te bestrijden, kiezen regulators voor verschillende benaderingen tussen landen en regio’s, waardoor globale spanningen toenemen wanneer geen overeenstemming kan worden bereikt.

Deze regelgevende verschillen werden benadrukt tijdens een recente AI Actie Top in Parijs. De slotverklaring van de gebeurtenis richtte zich op kwesties van inclusiviteit en openheid in AI-ontwikkeling. Interessant is dat het alleen breed de veiligheid en betrouwbaarheid vermeldde, zonder specifieke AI-gerelateerde risico’s te benadrukken, zoals beveiligingsbedreigingen. Opgesteld door 60 landen, het VK en de VS ontbraken opvallend in de handtekeningen van de verklaring, wat aangeeft hoe weinig overeenstemming er op dit moment is tussen sleutellanden.

AI-risico’s wereldwijd aanpakken

AI-ontwikkeling en -implementatie wordt op verschillende manieren gereguleerd binnen elk land. Niettemin passen de meeste ergens tussen de twee uitersten – de benaderingen van de Verenigde Staten en de Europese Unie (EU).

De Amerikaanse manier: eerst innoveren, dan reguleren

In de Verenigde Staten zijn er geen federale wetten die specifiek AI reguleren, maar er wordt vertrouwd op marktgebaseerde oplossingen en vrijwillige richtlijnen. Er zijn echter enkele belangrijke wetten voor AI, waaronder de National AI Initiative Act, die tot doel heeft om federaal AI-onderzoek te coördineren, de Federal Aviation Administration Reauthorisation Act en het vrijwillige risicobeheerkader van het National Institute of Standards and Technology (NIST).

Het Amerikaanse regelgevingslandschap blijft vloeibaar en onderhevig aan grote politieke verschuivingen. Zo vaardigde president Biden in oktober 2023 een uitvoerend besluit uit over veilige, beveiligde en betrouwbare ontwikkeling en gebruik van kunstmatige intelligentie, waarin normen werden vastgesteld voor kritieke infrastructuur, AI-gedreven cybersecurity en gereguleerde door de overheid gefinancierde AI-projecten. Echter, in januari 2025, herroepen president Trump dit uitvoerend besluit, in een verschuiving weg van regulering en naar het prioriteren van innovatie.

De Amerikaanse benadering heeft zijn critici. Zij merken op dat de ” gefragmenteerde aard ” leidt tot een complex web van regels die ” geen afdwingbare normen ” hebben, en ” gaten in de privacybescherming ” heeft. Echter, de benadering als geheel is in flux – in 2024 hebben wetgevers van de staat bijna 700 nieuwe AI-wetten ingediend en er zijn meerdere hoorzittingen over AI in governance en AI en intellectueel eigendom. Hoewel het duidelijk is dat de Amerikaanse overheid niet terugdeinst voor regulering, zoekt ze duidelijk naar manieren om het te implementeren zonder innovatie te compromitteren.

De EU-benadering: prioriteit geven aan preventie

De EU heeft een andere benadering gekozen. In augustus 2024 hebben het Europees Parlement en de Raad de Artificial Intelligence Act (AI Act) ingevoerd, die algemeen wordt beschouwd als de meest omvattende AI-regulering tot nu toe. Door een risicogebaseerde benadering te hanteren, legt de wet strikte regels op voor high-sensitivity AI-systemen, zoals die gebruikt worden in de gezondheidszorg en kritieke infrastructuur. Laagrisico-toepassingen worden slechts minimaal gecontroleerd, terwijl sommige toepassingen, zoals door de overheid gerunde sociale scoresystemen, volledig verboden zijn.

In de EU is naleving verplicht, niet alleen binnen zijn grenzen, maar ook voor elke aanbieder, distributeur of gebruiker van AI-systemen die in de EU opereren, of AI-oplossingen aanbieden aan zijn markt – zelfs als het systeem buiten de EU is ontwikkeld. Het is waarschijnlijk dat dit uitdagingen zal opleveren voor Amerikaanse en andere niet-EU-aanbieders van geïntegreerde producten, aangezien zij hun systemen moeten aanpassen.

Critici van de EU-benadering zijn onder andere de vermeende mislukking om een gouden standaard voor mensenrechten vast te stellen. Overmatige complexiteit is ook opgemerkt, evenals een gebrek aan duidelijkheid. Critici zijn bezorgd over de hoogst exacte technische vereisten van de EU, omdat deze worden gesteld op een moment waarop de EU zijn concurrentiepositie probeert te versterken.

Het vinden van de regelgevende middenweg

Ondertussen heeft het Verenigd Koninkrijk een “lichtgewicht” kader aangenomen dat ergens tussen de EU en de VS zit, en gebaseerd is op kernwaarden zoals veiligheid, eerlijkheid en transparantie. Bestaande regulators, zoals de Information Commissioner’s Office, hebben de macht om deze principes binnen hun respectieve domeinen te implementeren.

De Britse regering heeft een AI-kansenactieplan gepubliceerd, met maatregelen om te investeren in AI-fundamenten, AI-adoptie te implementeren in de hele economie en “thuisgebouwde” AI-systemen te stimuleren. In november 2023 heeft het VK het AI Safety Institute (AISI) opgericht, voortgekomen uit de Frontier AI Taskforce. AISI is opgericht om de veiligheid van geavanceerde AI-modellen te evalueren, in samenwerking met grote ontwikkelaars om dit te bereiken door middel van veiligheidstests.

Echter, critici van de Britse benadering van AI-regulering zijn onder andere beperkte handhavingsmogelijkheden en een gebrek aan coördinatie tussen sectorale wetgeving. Critici hebben ook een gebrek aan een centrale regelgevende autoriteit opgemerkt.

Net als het VK hebben andere belangrijke landen ook hun eigen plaats gevonden ergens op het spectrum van de VS-EU. Zo heeft Canada een risicogebaseerde benadering ingevoerd met de voorgestelde AI en Data Act (AIDA), die is ontworpen om een balans te vinden tussen innovatie, veiligheid en ethische overwegingen. Japan heeft een “mensgerichte” benadering van AI aangenomen door richtlijnen te publiceren die vertrouwenwekkende ontwikkeling bevorderen. Ondertussen heeft China AI-regulering strak onder controle van de staat, met recente wetten die vereisen dat generatieve AI-modellen veiligheidsbeoordelingen ondergaan en in overeenstemming zijn met socialistische waarden. Net als het VK heeft Australië een AI-ethiekraamwerk vrijgegeven en onderzoekt het de actualisering van zijn privacywetten om de opkomende uitdagingen van AI-innovatie aan te pakken.

Hoe internationale samenwerking tot stand te brengen?

Naarmate AI-technologie blijft evolueren, worden de verschillen tussen regelgevende benaderingen steeds duidelijker. Elke individuele benadering die wordt genomen met betrekking tot gegevensbescherming, auteursrechtbescherming en andere aspecten, maakt het moeilijker om een coherent globaal consensus te bereiken over belangrijke AI-gerelateerde risico’s. In deze omstandigheden is internationale samenwerking cruciaal om basisnormen vast te stellen die belangrijke risico’s aanpakken zonder innovatie te beperken.

Het antwoord op internationale samenwerking kan liggen bij mondiale organisaties zoals de Organisatie voor Economische Samenwerking en Ontwikkeling (OESO), de Verenigde Naties en vele anderen, die momenteel werken aan het vaststellen van internationale normen en ethische richtlijnen voor AI. De weg vooruit zal niet gemakkelijk zijn, omdat het vereist dat iedereen in de industrie gemeenschappelijke grond vindt. Als we bedenken dat innovatie met lichtsnelheid gaat – is de tijd om te discussiëren en overeen te komen nu.

Viktorija Lapenyte is de Head of Product Legal Counsel bij Oxylabs. Met meer dan een decennium aan juridische ervaring in de IT-sector, heeft Viktorija Lapėnytė diepgaande expertise ontwikkeld in het navigeren door complexe zakelijke en regelgevingsuitdagingen als in-house juridisch adviseur. Vandaag is Viktorija de Head of Product Legal Counsel bij Oxylabs, een marktleidende webintelligentiecollectieplatform. Het team van Viktorija specialiseert zich in de juridische complexiteiten van opkomende datatechnologieën, van compliance en regelgevingsrisicobeheer tot gegevensbescherming en bredere discussies in de industrie over verantwoorde gegevensverwerving.