Connect with us

A Lacuna de Governança: Por que a Regulação de IA Sempre Estará Atrás

Líderes de pensamento

A Lacuna de Governança: Por que a Regulação de IA Sempre Estará Atrás

mm

A inovação evolui à velocidade da máquina, enquanto a governança se move à velocidade humana. À medida que a adoção de IA cresce exponencialmente, a regulação está atrasada, o que é fairly típico quando se trata de tecnologia. Em todo o mundo, governos e outras entidades estão se esforçando para regular a IA, mas abordagens fragmentadas e desiguais abundam.

Parte do desafio é que não há tal coisa como design de tecnologia apolítica. Há uma série de regulamentações e propostas, desde o Ato de IA da União Europeia até os sandboxes regulatórios dos EUA, cada um com sua própria filosofia. Embora a governança de IA inerentemente atrase a inovação, o desafio real é gerenciar a segurança e a política de forma responsável dentro desse atraso.

A natureza da lacuna: Inovação primeiro, supervisão depois

O atraso regulatório é um subproduto inevitável do progresso tecnológico. Por exemplo, Henry Ford não estava desenvolvendo o Model T com foco principal na segurança das estradas e regras de trânsito. Os padrões regulatórios historicamente seguem a inovação; exemplos recentes incluem privacidade de dados, blockchain e mídia social. A evolução rápida da IA supera a formação e aplicação de políticas. Em outras palavras, a carroça tem estado antes do cavalo por um tempo.

Parte do desafio é que os formuladores de políticas muitas vezes reagem a danos em vez de antecipar riscos, o que cria ciclos de governança reativa. O problema não é o atraso em si, mas sim a falta de mecanismos adaptativos para acompanhar os modelos de ameaças emergentes e a falta de vontade de comprometer a vantagem competitiva em nome da segurança. É um cenário de “corrida para o fundo”; estamos erodindo nossa própria segurança coletiva por ganhos competitivos localizados.

Padrão global de governança de IA representa filosofias fragmentadas

As principais abordagens de governança de IA existentes no mundo variam muito.

Na UE, o Ato de IA introduzido no ano passado é muito baseado em ética e risco. O uso de IA é avaliado de acordo com o nível de risco, com alguns considerados inaceitáveis e, portanto, proibidos. Os EUA, por outro lado, adotaram mais um modelo de sandbox regulatório que enfatiza a flexibilidade da inovação. Alguns podem descrevê-lo como uma exceção para a inovação, enquanto críticos podem chamá-lo de cheque em branco.

Há também o Processo de Hiroshima, que contém intenção de coordenação global, mas acompanhamento limitado; cada nação do G7 ainda está focada na dominância doméstica de IA.

Nos EUA, a questão foi largamente deixada para os estados, o que efetivamente garante uma falta de regulação eficaz. O governo federal faz isso às vezes precisamente por causa de quão ineficaz pode ser. Os estados estão criando novos sandboxes para atrair empresas de tecnologia e investimentos, mas é improvável que haja alguma regulação significativa no nível estadual; apenas exceções concedidas.

O Reino Unido tem estado em uma luta doméstica e internacional para estabelecer-se como fortemente independente após o Brexit. Através da desregulação e do esquema “Leveling Up” do governo, a introdução de sandboxes regulatórios não é surpreendente. O governo do Reino Unido quer que o Reino Unido seja uma superpotência de IA dominante para vantagem política interna e externa e estabilidade.

A UE está mais focada na segurança do consumidor, mas também na força de seu mercado compartilhado. Isso faz sentido, dado o histórico da UE com regulação patchwork. Conformidade compartilhada, normas e comércio transfronteiriço são fundamentais para fazer da UE o que é. Eles ainda exigem sandboxes regulatórios, mas também que cada estado-membro deva ter um operacional até a mesma data.

Essas são apenas algumas dessas regulamentações, mas argumentativamente as mais proeminentes. O ponto-chave é que há estruturas desconexas que carecem de definições compartilhadas, mecanismos de aplicação e interoperabilidade transfronteiriça. Isso está deixando lacunas para atacantes explorarem.

A natureza política dos protocolos

Nenhuma regulação de IA pode ser verdadeiramente neutra; cada escolha de design, guarda e regulação reflete interesses governamentais ou corporativos subjacentes. A regulação de IA se tornou uma ferramenta geopolítica; as nações a usam para garantir vantagem econômica ou estratégica. Controles de exportação de chips são um exemplo atual; eles servem como governança de IA indireta.

A única regulação efetivamente introduzida até agora foi para intencionalmente prejudicar um mercado. A corrida global por supremacia de IA mantém a governança como um mecanismo para competição em vez de segurança colaborativa.

Segurança sem fronteiras, mas governança com elas

O grande problema espinhoso aqui é que as ameaças habilitadas por IA transcendem fronteiras, enquanto a regulação permanece confinada. As ameaças rapidamente evoluídas de hoje incluem ataques a sistemas de IA e ataques que usam sistemas de IA. Essas ameaças cruzam jurisdições, mas a regulação permanece isolada. A segurança é sequestrada em um canto, enquanto as ameaças cruzam toda a internet.

Já estamos começando a ver o abuso de ferramentas de IA legítimas por atores de ameaça globais que exploram controles de segurança fracos. Por exemplo, atividade maliciosa foi vista com o uso de ferramentas de criação de sites de IA que são mais como clonadores de sites e podem ser facilmente abusados para criar infraestrutura de phishing. Essas ferramentas foram usadas para imitar páginas de login para tudo, desde serviços de mídia social populares até agências de polícia nacionais.

Até que os quadros de governança reflitam a estrutura sem fronteiras da IA, os defensores permanecerão limitados por leis fragmentadas.

De regulação reativa para defesa proativa

O atraso regulatório é inevitável, mas a estagnação não é. Precisamos de governança adaptativa e previsível, com quadros que evoluam com a tecnologia; é uma questão de mudar de regulação reativa para defesa proativa. Idealmente, isso pareceria:

  • Desenvolvimento de padrões internacionais compartilhados para classificação de risco de IA.
  • Participação ampliada na definição de padrões além dos principais governos e corporações. A governança da internet buscou (com sucesso misto) usar um modelo multissetorial em vez de um multilateral. Embora imperfeito, ele teve um grande impacto em tornar a internet uma ferramenta para todos e minimizar a censura e os fechamentos políticos.
  • Fomento à diversidade de pensamento na governança.
  • Mecanismo para relatórios de incidentes e transparência. A falta de regulamentações frequentemente também significa falta de requisitos de relatórios. É improvável que haja um requisito para informar o público sobre danos causados por erros ou escolhas de design dentro de sandboxes regulatórios no futuro próximo.

Embora a lacuna de governança nunca desapareça, quadros colaborativos, transparentes e inclusivos podem evitar que se torne uma vulnerabilidade permanente na segurança global.

Ginny Spicer é uma Analista de Ameaças Cibernéticas na Netcraft, onde ela acompanha as táticas e campanhas de atores de ameaça emergentes. Seu background é em análise de rede e pesquisa de ameaças de estado-nação. Ela é a presidente de 2026 do capítulo do Vale do Silício da HTCIA, membro do conselho do Consortium de Inspeção de Pacotes Profundos e uma das Ambassadors da Juventude de 2025 da Internet Society.