Entre em contato

Alcançando o equilíbrio: abordagens globais para mitigar riscos relacionados à IA

Líderes de pensamento

Alcançando o equilíbrio: abordagens globais para mitigar riscos relacionados à IA

mm

Não é segredo que, nos últimos anos, as tecnologias modernas têm desafiado os limites éticos de estruturas jurídicas existentes que não foram projetadas para elas, resultando em campos minados jurídicos e regulatórios. Para tentar combater os efeitos disso, os reguladores estão optando por proceder de diversas maneiras entre países e regiões, aumentando as tensões globais quando não se chega a um acordo.

Essas diferenças regulatórias foram destacadas em uma recente Cúpula de Ação da IA ​​em Paris. declaração final O evento focou em questões de inclusão e abertura no desenvolvimento da IA. Curiosamente, mencionou apenas questões gerais de segurança e confiabilidade, sem enfatizar riscos específicos relacionados à IA, como ameaças à segurança. Elaborado por 60 nações, Reino Unido e EUA estavam notavelmente ausentes das assinaturas da declaração, o que mostra o quão pouco consenso existe atualmente entre os principais países.

Enfrentando os riscos da IA ​​globalmente

O desenvolvimento e a implantação da IA ​​são regulamentados de forma diferente em cada país. No entanto, a maioria se enquadra em algum ponto entre os dois extremos — as posições dos Estados Unidos e da União Europeia (UE).

O jeito dos EUA: primeiro inovar, depois regular

Nos Estados Unidos, não há leis federais que regulem a IA em particular; em vez disso, ela depende de soluções baseadas no mercado e diretrizes voluntárias. No entanto, existem algumas peças legislativas importantes para a IA, incluindo a Lei da Iniciativa Nacional de IA, que visa coordenar a pesquisa federal em IA, a Lei de Reautorização da Administração Federal de Aviação (FAA) e a estrutura voluntária de gestão de riscos do Instituto Nacional de Padrões e Tecnologia (NIST).

O cenário regulatório dos EUA permanece fluido e sujeito a grandes mudanças políticas. Por exemplo, em outubro de 2023, o presidente Biden emitiu uma Ordem Executiva sobre Inteligência Artificial Segura, Protegida e Confiável, implementando padrões para infraestrutura crítica, aprimorando a segurança cibernética impulsionada pela IA e regulamentando projetos de IA financiados pelo governo federal. No entanto, em janeiro de 2025, o presidente Trump revogou esta ordem executiva, em uma mudança de foco, afastando-se da regulamentação e priorizando a inovação.

A abordagem dos EUA tem seus críticos. Eles observam que seu “natureza fragmentada“leva a uma complexa rede de regras que”falta de padrões aplicáveis,” e tem “lacunas na proteção da privacidade.” No entanto, a postura como um todo está em fluxo – em 2024, os legisladores estaduais introduziram quase 700 peças de nova legislação sobre IA e tem havido audiências múltiplas sobre IA na governança, bem como IA e propriedade intelectual. Embora seja evidente que o governo dos EUA não se esquiva da regulamentação, está claramente buscando maneiras de implementá-la sem comprometer a inovação.

O caminho da UE: dar prioridade à prevenção

A UE optou por uma abordagem diferente. Em agosto de 2024, o Parlamento Europeu e o Conselho introduziram a Lei de Inteligência Artificial (Lei de IA), que tem sido amplamente considerada a peça mais abrangente de regulamentação de IA até o momento. Ao empregar uma abordagem baseada em risco, a lei impõe regras rígidas a sistemas de IA de alta sensibilidade, como aqueles usados ​​em saúde e infraestrutura crítica. Aplicações de baixo risco enfrentam supervisão mínima, enquanto em algumas aplicações, como sistemas de pontuação social administrados pelo governo, são completamente proibidas.

Na UE, a conformidade é obrigatória não apenas dentro de suas fronteiras, mas também para qualquer fornecedor, distribuidor ou usuário de sistemas de IA que opere na UE ou que ofereça soluções de IA para seu mercado – mesmo que o sistema tenha sido desenvolvido fora dela. É provável que isso represente desafios para os fornecedores de produtos integrados dos EUA e de outros países de fora da UE, à medida que trabalham para se adaptar.

As críticas à abordagem da UE incluem a sua alegada falha em estabelecer um padrão-ouro pelos direitos humanos. Complexidade excessiva também foi notada juntamente com uma falta de clareza. Os críticos estão preocupados com a UE requisitos técnicos altamente exigentes, porque ocorrem num momento em que a UE procura reforçar a sua competitividade.

Encontrar o meio termo regulatório

Enquanto isso, o Reino Unido adotou uma estrutura "leve" que se situa em algum ponto entre a UE e os EUA e se baseia em valores fundamentais como segurança, justiça e transparência. Os reguladores existentes, como o Information Commissioner's Office, detêm o poder de implementar esses princípios em seus respectivos domínios.

O governo do Reino Unido publicou um Plano de Ação para Oportunidades de IA, delineando medidas para investir em fundamentos de IA, implementar a adoção intereconômica de IA e promover sistemas de IA "domésticos". Em novembro de 2023, o Reino Unido fundou o Instituto de Segurança de IA (AISI), evoluindo da Frontier AI Taskforce. O AISI foi criado para avaliar a segurança de modelos avançados de IA, colaborando com grandes desenvolvedores para atingir esse objetivo por meio de testes de segurança.

No entanto, as críticas à abordagem do Reino Unido à regulamentação da IA ​​incluem capacidades limitadas de execução e uma falta de coordenação entre as legislações setoriais. Os críticos também notaram a ausência de uma autoridade reguladora central.

Assim como o Reino Unido, outros países importantes também encontraram seu próprio lugar em algum lugar no espectro EUA-UE. Por exemplo, o Canadá introduziu uma abordagem baseada em risco com a proposta de Lei de IA e Dados (AIDA), que visa encontrar um equilíbrio entre inovação, segurança e considerações éticas. O Japão adotou uma abordagem "centrada no ser humano" para a IA, publicando diretrizes que promovem o desenvolvimento confiável. Enquanto isso, na China, a regulamentação da IA ​​é rigidamente controlada pelo Estado, com leis recentes exigindo que modelos generativos de IA passem por avaliações de segurança e se alinhem aos valores socialistas. Semelhante ao Reino Unido, a Austrália lançou uma estrutura de ética em IA e está buscando atualizar suas leis de privacidade para enfrentar os desafios emergentes impostos pela inovação em IA.

Como estabelecer cooperação internacional?

À medida que a tecnologia de IA continua a evoluir, as diferenças entre as abordagens regulatórias tornam-se cada vez mais evidentes. Cada abordagem individual adotada em relação à privacidade de dados, proteção de direitos autorais e outros aspectos dificulta a obtenção de um consenso global coerente sobre os principais riscos relacionados à IA. Nessas circunstâncias, a cooperação internacional é crucial para estabelecer padrões básicos que abordem os principais riscos sem restringir a inovação.

A resposta para a cooperação internacional pode estar em organizações globais como a Organização para a Cooperação e Desenvolvimento Econômico (OCDE), as Nações Unidas e diversas outras, que atualmente trabalham para estabelecer padrões internacionais e diretrizes éticas para a IA. O caminho a seguir não será fácil, pois exige que todos no setor encontrem um ponto em comum. Considerando que a inovação avança à velocidade da luz, o momento de discutir e chegar a um acordo é agora.

Viktorija Lapenyte é a Chefe do Departamento Jurídico de Produtos da oxilabsCom mais de uma década de experiência jurídica no setor de TI, Viktorija Lapėnytė desenvolveu profunda expertise em lidar com desafios empresariais e regulatórios complexos como consultora jurídica interna. Atualmente, Viktorija é Chefe de Consultoria Jurídica de Produtos na Oxylabs, uma plataforma líder de mercado em coleta de inteligência web. A equipe de Viktorija é especializada nas complexidades jurídicas das tecnologias de dados emergentes, desde conformidade e gestão de riscos regulatórios até privacidade de dados e discussões em todo o setor sobre aquisição responsável de dados.