stomp China richt zich op generatieve AI-gegevensbeveiliging met nieuwe regelgevingsvoorstellen - Unite.AI
Verbind je met ons

Regulatie

China richt zich op generatieve AI-gegevensbeveiliging met nieuwe regelgevingsvoorstellen

Bijgewerkt on

Gegevensbeveiliging is van het allergrootste belang, vooral op gebieden die zo invloedrijk zijn als kunstmatige intelligentie (AI). China onderkent dit en heeft nieuwe ontwerp-regelgeving voorgesteld, een stap die het cruciale belang van gegevensbeveiliging in trainingsprocessen voor AI-modellen onderstreept.

“Zwarte lijst”-mechanisme en veiligheidsbeoordelingen

De draft, dat op 11 oktober openbaar werd gemaakt, kwam niet voort uit één enkele entiteit, maar was een gezamenlijke inspanning. Het National Information Security Standardization Committee nam het roer over, met aanzienlijke inbreng van de Cyberspace Administration of China (CAC), het ministerie van Industrie en Informatietechnologie en verschillende wetshandhavingsinstanties. Deze betrokkenheid van meerdere instanties geeft aan dat er veel op het spel staat en dat er diverse overwegingen zijn bij de beveiliging van AI-gegevens.

De mogelijkheden van generatieve AI zijn zowel indrukwekkend als uitgebreid. Van het maken van tekstuele inhoud tot het maken van afbeeldingen: deze AI-subset leert van bestaande gegevens om nieuwe, originele resultaten te genereren. Maar grote macht brengt ook grote verantwoordelijkheid met zich mee, waardoor strenge controles nodig zijn op de gegevens die dienen als leermateriaal voor deze AI-modellen.

De voorgestelde regelgeving is nauwgezet en pleit voor grondige veiligheidsbeoordelingen van de gegevens die worden gebruikt bij het trainen van generatieve AI-modellen die toegankelijk zijn voor het publiek. Ze gaan nog een stap verder en stellen een 'zwarte lijst'-mechanisme voor inhoud voor. De drempel voor plaatsing op de zwarte lijst is nauwkeurig: inhoud die meer dan “5% onwettige en schadelijke informatie” omvat. De reikwijdte van dergelijke informatie is breed en omvat inhoud die aanzet tot terrorisme of geweld of die schade toebrengt aan nationale belangen en reputatie.

Implicaties voor mondiale AI-praktijken

De ontwerpregelgeving uit China herinnert ons aan de complexiteit die gepaard gaat met de ontwikkeling van AI, vooral nu de technologie steeds geavanceerder en wijdverbreider wordt. De richtlijnen suggereren een wereld waarin bedrijven en ontwikkelaars voorzichtig te werk moeten gaan en innovatie in evenwicht moeten brengen met verantwoordelijkheid.

Hoewel deze regelgeving specifiek voor China geldt, zou hun invloed wereldwijd weerklank kunnen vinden. Ze zouden wereldwijd soortgelijke strategieën kunnen inspireren, of op zijn minst diepere gesprekken over de ethiek en veiligheid van AI kunnen aanwakkeren. Terwijl we de mogelijkheden van AI blijven omarmen, vereist de weg voorwaarts een scherp bewustzijn en een proactief beheer van de potentiële risico's die daarmee gepaard gaan.

Dit initiatief van China onderstreept een universele waarheid: naarmate technologie, en vooral AI, steeds meer verweven raakt met onze wereld, wordt de behoefte aan rigoureuze gegevensbeveiliging en ethische overwegingen urgenter. De voorgestelde regelgeving markeert een belangrijk moment en vestigt de aandacht op de bredere implicaties voor de veilige en verantwoorde evolutie van AI.

 

Alex McFarland is een AI-journalist en -schrijver die de nieuwste ontwikkelingen op het gebied van kunstmatige intelligentie onderzoekt. Hij heeft samengewerkt met tal van AI-startups en publicaties over de hele wereld.