Regelgeving
China Richt zich op Generatieve AI-gegevensbeveiliging met Nieuwe Reguleringsvoorstellen

Gegevensbeveiliging is van het grootste belang, vooral op gebieden die zo invloedrijk zijn als kunstmatige intelligentie (AI). China heeft hiervan doordacht en heeft nieuwe ontwerpreglementen uitgevaardigd, een beweging die de kritiek op gegevensbeveiliging in AI-modeltrainingsprocessen onderstreept.
“Zwarte lijst”-mechanisme en beveiligingsbeoordelingen
Het ontwerp, dat op 11 oktober openbaar werd gemaakt, was geen inspanning van één enkele entiteit, maar een gezamenlijke inspanning. Het Nationaal Comité voor Informatieveiligheidsnormalisatie nam de leiding, met significante bijdragen van de Cyberspace Administration of China (CAC), het Ministerie van Industrie en Informatietechnologie en verschillende rechtshandhavingsinstanties. Deze betrokkenheid van meerdere agentschappen geeft aan dat er hoge inzet en diverse overwegingen zijn bij de beveiliging van AI-gegevens.
De mogelijkheden van generatieve AI zijn zowel indrukwekkend als uitgebreid. Van het creëren van tekstuele inhoud tot het maken van beelden, leert deze AI-ondercategorie van bestaande gegevens om nieuwe, originele uitvoer te genereren. Echter, met grote macht komt grote verantwoordelijkheid, waardoor strikte controles op de gegevens die als leerstof dienen voor deze AI-modellen noodzakelijk zijn.
De voorgestelde reglementen zijn meticuleus, waarbij wordt gepleit voor grondige beveiligingsbeoordelingen van de gegevens die worden gebruikt voor het trainen van generatieve AI-modellen die toegankelijk zijn voor het publiek. Ze gaan een stap verder en stellen een ‘zwarte lijst’-mechanisme voor voor inhoud. De drempel voor het op de zwarte lijst plaatsen is precies — inhoud die bestaat uit meer dan “5% onwettige en schadelijke informatie”. Het bereik van dergelijke informatie is breed, waardoor inhoud die terrorisme, geweld of schade aan nationale belangen en reputatie aanzet, wordt gevangen.
Implicaties voor wereldwijde AI-praktijken
De ontwerpreglementen van China dienen als een herinnering aan de complexiteiten die zijn betrokken bij de ontwikkeling van AI, vooral nu de technologie meer geavanceerd en wijdverbreid wordt. De richtlijnen suggereren een wereld waarin bedrijven en ontwikkelaars voorzichtig moeten zijn, innovatie in evenwicht brengend met verantwoordelijkheid.
Hoewel deze reglementen specifiek voor China zijn, kan hun invloed wereldwijd resonerend zijn. Ze kunnen soortgelijke strategieën wereldwijd inspireren, of ten minste diepere gesprekken over de ethiek en beveiliging van AI aanwakkeren. Naarmate we de mogelijkheden van AI omarmen, vereist de weg vooruit een scherpe bewustzijn en proactief beheer van de potentiële risico’s die hiermee gemoeid zijn.
Deze initiatief van China benadrukt een universele waarheid — naarmate technologie, vooral AI, meer verweven raakt met onze wereld, wordt de noodzaak van strikte gegevensbeveiliging en ethische overwegingen nog dringender. De voorgestelde reglementen markeren een significante gebeurtenis, die de bredere implicaties voor de veilige en verantwoorde evolutie van AI onder de aandacht brengen.












