Refresh

This website www.unite.ai/no/Kina-m%C3%A5lretter-generativ-ai-datasikkerhet-med-nye-reguleringsforslag/ is currently offline. Cloudflare's Always Online™ shows a snapshot of this web page from the Internet Archive's Wayback Machine. To check for the live version, click Refresh.

stub Kina målretter generativ AI-datasikkerhet med ferske reguleringsforslag - Unite.AI
Kontakt med oss

Regulering

Kina målretter generativ AI-datasikkerhet med ferske reguleringsforslag

oppdatert on

Datasikkerhet er viktig, spesielt i felt som er så innflytelsesrike som kunstig intelligens (AI). Kina erkjenner dette og har lagt frem nye utkast til regelverk, et trekk som understreker det kritiske ved datasikkerhet i AI-modellopplæringsprosesser.

"Svarteliste"-mekanismer og sikkerhetsvurderinger

De Utkast, som ble offentliggjort 11. oktober, dukket ikke opp fra en enkelt enhet, men var et samarbeid. Den nasjonale standardiseringskomiteen for informasjonssikkerhet tok roret, med betydelige innspill fra Cyberspace Administration of China (CAC), departementet for industri og informasjonsteknologi og flere rettshåndhevelsesorganer. Dette engasjementet fra flere byråer indikerer de høye innsatsene og de ulike hensynene som er involvert i AI-datasikkerhet.

Mulighetene til generativ AI er både imponerende og omfattende. Fra å lage tekstinnhold til å lage bilder, denne AI-undergruppen lærer av eksisterende data for å generere nye, originale utdata. Med stor makt følger imidlertid stort ansvar, noe som krever strenge kontroller av dataene som fungerer som læringsmateriell for disse AI-modellene.

De foreslåtte forskriftene er omhyggelige, og tar til orde for grundige sikkerhetsvurderinger av dataene som brukes i opplæring av generative AI-modeller som er tilgjengelige for publikum. De går et skritt videre og foreslår en "svarteliste"-mekanisme for innhold. Terskelen for svartelisting er presis – innhold som omfatter mer enn «5 % av ulovlig og skadelig informasjon». Omfanget av slik informasjon er bredt, og fanger opp innhold som oppfordrer til terrorisme, vold eller skader nasjonale interesser og omdømme.

Implikasjoner for global AI-praksis

Utkastet til regelverk fra Kina tjener som en påminnelse om kompleksiteten involvert i AI-utvikling, spesielt ettersom teknologien blir mer sofistikert og utbredt. Retningslinjene antyder en verden der selskaper og utviklere må trå varsomt og balansere innovasjon med ansvar.

Selv om disse forskriftene er spesifikke for Kina, kan deres innflytelse gi gjenklang globalt. De kan inspirere til lignende strategier over hele verden, eller i det minste sette i gang dypere samtaler rundt etikken og sikkerheten til AI. Mens vi fortsetter å omfavne AIs muligheter, krever veien videre en skarp bevissthet og proaktiv styring av de potensielle risikoene som er involvert.

Dette initiativet fra Kina understreker en universell sannhet – ettersom teknologi, spesielt AI, blir mer sammenvevd med vår verden, blir behovet for streng datasikkerhet og etiske hensyn mer presserende. De foreslåtte forskriftene markerer et betydelig øyeblikk, og retter oppmerksomheten mot de bredere implikasjonene for AIs sikre og ansvarlige utvikling.

 

Alex McFarland er en Brasil-basert forfatter som dekker den siste utviklingen innen kunstig intelligens. Han har jobbet med topp AI-selskaper og publikasjoner over hele verden.