taló La Xina apunta a la seguretat de les dades d'IA generativa amb noves propostes normatives - Unite.AI
Connecteu-vos amb nosaltres

Regulació

La Xina té com a objectiu la seguretat generativa de dades d'IA amb noves propostes normatives

actualitzat on

La seguretat de les dades és primordial, especialment en camps tan influents com la intel·ligència artificial (IA). Reconeixent això, la Xina ha presentat un nou esborrany de regulacions, un moviment que subratlla la importància de la seguretat de les dades en els processos de formació de models d'IA.

Mecanisme de “llista negra” i avaluacions de seguretat

El esborrany, feta pública l'11 d'octubre, no va sorgir d'una sola entitat sinó que va ser un esforç col·laboratiu. El Comitè Nacional d'Estandardització de la Seguretat de la Informació va prendre el timó, amb aportacions importants de l'Administració del ciberespai de la Xina (CAC), el Ministeri d'Indústria i Tecnologia de la Informació i diversos cossos d'aplicació de la llei. Aquesta implicació de diverses agències indica les grans apostes i les diverses consideracions que implica la seguretat de les dades d'IA.

Les capacitats de la IA generativa són impressionants i extenses. Des de l'elaboració de contingut textual fins a la creació d'imatges, aquest subconjunt d'IA aprèn de les dades existents per generar resultats nous i originals. Tanmateix, amb un gran poder comporta una gran responsabilitat, que requereix controls estrictes de les dades que serveixen de material d'aprenentatge per a aquests models d'IA.

La normativa proposada és meticulosa i advoca per avaluacions de seguretat exhaustives de les dades utilitzades en la formació de models d'IA generativa accessibles al públic. Van un pas més enllà, proposant un mecanisme de 'llista negra' per als continguts. El llindar de la llista negra és precís: contingut que inclou més del "5% d'informació il·legal i perjudicial". L'abast d'aquesta informació és ampli i recull contingut que inciti al terrorisme, a la violència o que perjudiqui els interessos i la reputació nacionals.

Implicacions per a les pràctiques globals d'IA

L'esborrany de regulacions de la Xina serveix com a recordatori de les complexitats que implica el desenvolupament de la IA, especialment a mesura que la tecnologia es fa més sofisticada i generalitzada. Les directrius suggereixen un món on les empreses i els desenvolupadors han de caminar amb cura, equilibrant la innovació amb la responsabilitat.

Tot i que aquestes regulacions són específiques de la Xina, la seva influència podria ressonar a nivell mundial. Poden inspirar estratègies similars a tot el món, o almenys, encendre converses més profundes sobre l'ètica i la seguretat de la IA. A mesura que continuem adoptant les possibilitats de la IA, el camí a seguir exigeix ​​una gran consciència i una gestió proactiva dels possibles riscos implicats.

Aquesta iniciativa de la Xina subratlla una veritat universal: a mesura que la tecnologia, especialment la IA, s'entrellaça més amb el nostre món, la necessitat d'una seguretat de dades rigorosa i consideracions ètiques es fa més urgent. Les normatives proposades marquen un moment significatiu, cridant l'atenció sobre les implicacions més àmplies per a l'evolució segura i responsable de la IA.

 

Alex McFarland és un periodista i escriptor d'IA que explora els últims desenvolupaments en intel·ligència artificial. Ha col·laborat amb nombroses startups i publicacions d'IA a tot el món.