toco China visa segurança de dados de IA generativa com novas propostas regulatórias - Unite.AI
Entre em contato

Regulamento

China visa segurança de dados de IA generativa com novas propostas regulatórias

Atualização do on

A segurança dos dados é fundamental, especialmente em campos tão influentes como a inteligência artificial (IA). Reconhecendo isto, a China apresentou novos projetos de regulamentação, uma medida que sublinha a importância da segurança dos dados nos processos de formação de modelos de IA.

Mecanismo de “lista negra” e avaliações de segurança

A rascunho, tornado público em 11 de outubro, não surgiu de uma única entidade, mas foi um esforço colaborativo. O Comité Nacional de Normalização da Segurança da Informação assumiu o comando, com contribuições significativas da Administração do Ciberespaço da China (CAC), do Ministério da Indústria e Tecnologia da Informação e de vários organismos responsáveis ​​pela aplicação da lei. Este envolvimento multiagências indica os grandes riscos e as diversas considerações envolvidas na segurança de dados de IA.

As capacidades da IA ​​generativa são impressionantes e extensas. Desde a elaboração de conteúdo textual até a criação de imagens, esse subconjunto de IA aprende com os dados existentes para gerar resultados novos e originais. No entanto, com grande poder vem uma grande responsabilidade, necessitando de verificações rigorosas dos dados que servem como material de aprendizagem para estes modelos de IA.

Os regulamentos propostos são meticulosos, defendendo avaliações de segurança completas dos dados utilizados na formação de modelos generativos de IA acessíveis ao público. Eles vão um passo além, propondo um mecanismo de “lista negra” para conteúdo. O limite para a inclusão na lista negra é preciso – conteúdo que compreende mais de “5% de informações ilegais e prejudiciais”. O alcance dessas informações é amplo, capturando conteúdos que incitem ao terrorismo, à violência ou que prejudiquem os interesses e a reputação nacionais.

Implicações para práticas globais de IA

Os projetos de regulamentos da China servem como um lembrete das complexidades envolvidas no desenvolvimento da IA, especialmente à medida que a tecnologia se torna mais sofisticada e difundida. As diretrizes sugerem um mundo onde as empresas e os desenvolvedores precisam agir com cautela, equilibrando inovação com responsabilidade.

Embora estes regulamentos sejam específicos da China, a sua influência pode repercutir globalmente. Podem inspirar estratégias semelhantes em todo o mundo ou, pelo menos, desencadear conversas mais profundas sobre a ética e a segurança da IA. À medida que continuamos a abraçar as possibilidades da IA, o caminho a seguir exige uma consciência aguçada e uma gestão proativa dos riscos potenciais envolvidos.

Esta iniciativa da China sublinha uma verdade universal: à medida que a tecnologia, especialmente a IA, se torna mais interligada com o nosso mundo, a necessidade de uma segurança de dados rigorosa e de considerações éticas torna-se mais premente. Os regulamentos propostos marcam um momento significativo, chamando a atenção para as implicações mais amplas para a evolução segura e responsável da IA.

 

Alex McFarland é um jornalista e escritor de IA que explora os mais recentes desenvolvimentos em inteligência artificial. Ele colaborou com inúmeras startups e publicações de IA em todo o mundo.