škrbina Kitajska cilja na generativno varnost podatkov umetne inteligence s svežimi regulativnimi predlogi - Unite.AI
Povežite se z nami

Uredba

Kitajska cilja na generativno varnost podatkov umetne inteligence s svežimi regulativnimi predlogi

Posodobljeno on

Varnost podatkov je najpomembnejša, zlasti na tako vplivnih področjih, kot je umetna inteligenca (AI). Ob zavedanju tega je Kitajska predstavila nove osnutke predpisov, potezo, ki poudarja kritičnost varnosti podatkov v procesih usposabljanja modelov AI.

Mehanizem "črne liste" in varnostne ocene

O Osnutek, ki je bil objavljen 11. oktobra, ni nastal iz ene same entitete, ampak je bil skupen trud. Nacionalni odbor za standardizacijo informacijske varnosti je prevzel krmilo s pomembnim prispevkom Kitajske uprave za kibernetski prostor (CAC), Ministrstva za industrijo in informacijsko tehnologijo ter več organov kazenskega pregona. Ta vpletenost več agencij kaže na visoke vložke in različne premisleke, povezane z varnostjo podatkov umetne inteligence.

Zmogljivosti generativne umetne inteligence so impresivne in obsežne. Od oblikovanja besedilne vsebine do ustvarjanja slik, se ta podmnožica umetne inteligence uči iz obstoječih podatkov za ustvarjanje novih, izvirnih rezultatov. Vendar z veliko močjo prihaja velika odgovornost, ki zahteva stroga preverjanja podatkov, ki služijo kot učni material za te modele AI.

Predlagani predpisi so natančni in zagovarjajo temeljite varnostne ocene podatkov, uporabljenih pri usposabljanju generativnih modelov umetne inteligence, dostopnih javnosti. Gredo še korak dlje in predlagajo mehanizem "črnega seznama" za vsebino. Prag za uvrstitev na črni seznam je natančen – vsebina vsebuje več kot »5 % nezakonitih in škodljivih informacij«. Obseg takšnih informacij je širok in zajema vsebino, ki spodbuja terorizem, nasilje ali škoduje nacionalnim interesom in ugledu.

Posledice za globalne prakse umetne inteligence

Osnutki predpisov s Kitajske služijo kot opomin na zapletenost razvoja umetne inteligence, zlasti ko tehnologija postaja vse bolj izpopolnjena in razširjena. Smernice nakazujejo svet, v katerem morajo podjetja in razvijalci ravnati previdno in uravnotežiti inovacije z odgovornostjo.

Čeprav so ti predpisi specifični za Kitajsko, bi lahko njihov vpliv odmeval po vsem svetu. Lahko bi navdihnili podobne strategije po vsem svetu ali vsaj sprožili globlje pogovore o etiki in varnosti umetne inteligence. Medtem ko še naprej sprejemamo možnosti umetne inteligence, pot naprej zahteva močno zavedanje in proaktivno upravljanje morebitnih vključenih tveganj.

Ta pobuda Kitajske poudarja univerzalno resnico – ko postaja tehnologija, zlasti umetna inteligenca, vse bolj prepletena z našim svetom, postaja potreba po strogi varnosti podatkov in etičnih vidikih vse bolj pereča. Predlagani predpisi označujejo pomemben trenutek, saj opozarjajo na širše posledice za varen in odgovoren razvoj umetne inteligence.

 

Alex McFarland je novinar in pisec AI, ki raziskuje najnovejši razvoj umetnih inteligenc. Sodeloval je s številnimi startupi in publikacijami na področju umetne inteligence po vsem svetu.