Anslut dig till vårt nätverk!

reglering

Kina inriktar sig på generativ AI-datasäkerhet med nya regleringsförslag

Uppdaterad on

Datasäkerhet är av största vikt, särskilt inom områden som är så inflytelserika som artificiell intelligens (AI). Kina inser detta och har lagt fram nya utkast till förordningar, ett drag som understryker det kritiska med datasäkerhet i AI-modellutbildningsprocesser.

"Svartlista" mekanism och säkerhetsbedömningar

Smakämnen utkast, som offentliggjordes den 11 oktober, kom inte från en enda enhet utan var ett samarbete. Den nationella standardiseringskommittén för informationssäkerhet tog rodret, med betydande input från Cyberspace Administration of China (CAC), ministeriet för industri och informationsteknologi och flera brottsbekämpande organ. Detta engagemang från flera byråer indikerar de höga insatserna och olika överväganden som är involverade i AI-datasäkerhet.

Möjligheterna hos generativ AI är både imponerande och omfattande. Från att skapa textinnehåll till att skapa bilder, den här AI-undergruppen lär sig av befintliga data för att generera nya, ursprungliga utdata. Men med stor makt följer ett stort ansvar, vilket kräver stränga kontroller av data som fungerar som läromedel för dessa AI-modeller.

De föreslagna reglerna är noggranna och förespråkar noggranna säkerhetsbedömningar av data som används för att träna generativa AI-modeller som är tillgängliga för allmänheten. De går ett steg längre och föreslår en "svartlista"-mekanism för innehåll. Tröskeln för svartlistning är exakt - innehåll som omfattar mer än "5 % av olaglig och skadlig information." Omfattningen av sådan information är bred och innehåller innehåll som uppmuntrar till terrorism, våld eller skadar nationella intressen och rykte.

Implikationer för globala AI-praxis

Utkastet till förordningar från Kina tjänar som en påminnelse om komplexiteten i utvecklingen av AI, särskilt när tekniken blir mer sofistikerad och utbredd. Riktlinjerna föreslår en värld där företag och utvecklare måste trampa försiktigt och balansera innovation med ansvar.

Även om dessa regler är specifika för Kina, kan deras inflytande få resonans globalt. De kan inspirera till liknande strategier över hela världen, eller åtminstone antända djupare samtal kring AI:s etik och säkerhet. När vi fortsätter att omfamna AI:s möjligheter kräver vägen framåt en stor medvetenhet och proaktiv hantering av de potentiella riskerna.

Detta initiativ från Kina understryker en universell sanning – när teknik, särskilt AI, blir mer sammanflätad med vår värld, blir behovet av rigorös datasäkerhet och etiska överväganden mer pressande. De föreslagna bestämmelserna markerar ett viktigt ögonblick och uppmärksammar de bredare konsekvenserna för AI:s säkra och ansvarsfulla utveckling.

 

Alex McFarland är en AI-journalist och författare som utforskar den senaste utvecklingen inom artificiell intelligens. Han har samarbetat med många AI-startups och publikationer över hela världen.