Entre em contato

O Imperativo Sem Segredos: Por que os Modelos de Segurança Tradicionais Falham Quando Agentes de IA Interagem com o Código

Líderes de pensamento

O Imperativo Sem Segredos: Por que os Modelos de Segurança Tradicionais Falham Quando Agentes de IA Interagem com o Código

mm

Em abril 2023, A Samsung descobriu que seus engenheiros haviam vazado informações confidenciais para o ChatGPT.Mas isso foi acidental. Agora imagine se esses repositórios de código contivessem instruções deliberadamente inseridas, invisíveis para humanos, mas processadas por IA, projetadas para extrair não apenas o código, mas todas as chaves de API, credenciais de banco de dados e tokens de serviço aos quais a IA pudesse acessar. Isso não é hipotético. Pesquisadores de segurança já demonstraram Esses ataques de "instruções invisíveis" funcionam. A questão não é se isso vai acontecer, mas quando.

A fronteira que deixou de existir

Durante décadas, construímos a segurança com base em uma premissa fundamental: código é código e dados são dados. A injeção de SQL nos ensinou a parametrizar consultas. Os ataques de cross-site scripting nos ensinaram a escapar as saídas. Aprendemos a construir barreiras entre o que os programas fazem e o que os usuários inserem.

Com os agentes de IA, essa fronteira desapareceu.

Ao contrário de softwares determinísticos que seguem caminhos previsíveis, os Grandes Modelos de Linguagem são caixas-pretas probabilísticas que não conseguem distinguir entre instruções legítimas do desenvolvedor e entradas maliciosas. Quando um atacante envia um comando para um assistente de codificação de IA, ele não está apenas fornecendo dados. Ele está essencialmente reprogramando o aplicativo em tempo real. A entrada se torna o próprio programa.

Isso representa uma ruptura fundamental com tudo o que sabemos sobre segurança de aplicações. Os firewalls tradicionais baseados em sintaxe, que procuram padrões maliciosos como DROP TABLE ou tags, fail completely against natural language attacks. Researchers have demonstrated “semantic substitution” techniques where replacing “API keys” with “apples” in prompts allows attackers to bypass filters entirely. How do you firewall intent when it’s disguised as harmless conversation?

A realidade do zero cliques que ninguém está discutindo

Eis o que a maioria das equipes de segurança não entende: a injeção de prompts não exige que o usuário digite nada. Esses ataques geralmente são explorados sem qualquer interação humana. Um agente de IA, simplesmente escaneando um repositório de código para uma tarefa rotineira, revisando uma solicitação de pull request ou lendo a documentação da API, pode desencadear um ataque sem qualquer interação humana.

Considere este cenário, baseado em técnicas que os pesquisadores já comprovaramUm agente malicioso incorpora instruções invisíveis em comentários HTML na documentação de uma biblioteca popular de código aberto. Qualquer assistente de IA que analise esse código, seja o GitHub Copilot, o Amazon CodeWhisperer ou qualquer assistente de codificação empresarial, torna-se um potencial coletor de credenciais. Uma única biblioteca comprometida pode significar milhares de ambientes de desenvolvimento expostos.

O perigo não reside no próprio modelo de aprendizado de máquina (LLM), mas sim na autonomia que lhe conferimos. No momento em que integramos esses modelos a ferramentas e APIs, permitindo que busquem dados, executem código e acessem segredos, transformamos assistentes úteis em vetores de ataque perfeitos. O risco não aumenta proporcionalmente à inteligência do modelo, mas sim à sua conectividade.

Por que a abordagem atual está fadada ao fracasso

Atualmente, a indústria está obcecada em "alinhar" modelos e construir firewalls mais eficazes. A OpenAI adiciona mais salvaguardas. A Anthropic se concentra em IA constitucional. Todos estão tentando criar modelos que não possam ser enganados.

Esta é uma batalha perdida.

Se uma IA é inteligente o suficiente para ser útil, ela é inteligente o suficiente para ser enganada. Estamos caindo no que eu chamo de "armadilha da higienização": presumir que uma melhor filtragem de entrada nos salvará. Mas os ataques podem ser ocultados como texto invisível em comentários HTML, enterrados profundamente na documentação ou codificados de maneiras que ainda não imaginamos. Você não pode higienizar o que não consegue entender contextualmente, e o contexto é exatamente o que torna os Modelos de Aprendizagem Baseados em Lógica (LLMs) poderosos.

A indústria precisa aceitar uma dura verdade: a injeção imediata terá sucesso. A questão é o que acontecerá quando isso acontecer.

A mudança arquitetônica de que precisamos

Atualmente, estamos em uma "fase de correção", adicionando desesperadamente filtros de entrada e regras de validação. Mas, assim como eventualmente aprendemos que prevenir injeção de SQL exigia consultas parametrizadas, e não um melhor escape de strings, precisamos de uma solução arquitetural para a segurança da IA.

A resposta reside em um princípio que parece simples, mas exige repensar a forma como construímos sistemas: os agentes de IA nunca devem possuir os segredos que utilizam.

Não se trata de melhorar a gestão de credenciais ou as soluções de cofres de dados. Trata-se de reconhecer os agentes de IA como identidades únicas e verificáveis, em vez de usuários que precisam de senhas. Quando um agente de IA precisa acessar um recurso protegido, ele deve:

  1. Autenticar usando sua identidade verificável (não um segredo armazenado)

  2. Receba credenciais sob demanda, válidas apenas para essa tarefa específica.

  3. Configure essas credenciais para expirarem automaticamente em segundos ou minutos.

  4. Nunca guarde ou sequer "veja" segredos de longa duração.

Diversas abordagens estão surgindo. Funções do AWS IAM para contas de serviço, Identidade de carga de trabalho do Google, Segredos dinâmicos do HashiCorp VaultSoluções desenvolvidas especificamente para esse fim, como o Zero Trust Provisioning da Akeyless, apontam para esse futuro sem segredos. Os detalhes da implementação variam, mas o princípio permanece: se a IA não tem segredos para roubar, a injeção imediata se torna uma ameaça significativamente menor.

O Ambiente de Desenvolvimento de 2027

Dentro de três anos, o arquivo .env estará obsoleto no desenvolvimento com inteligência artificial. Chaves de API de longa duração armazenadas em variáveis ​​de ambiente serão vistas como hoje vemos senhas em texto simples: uma relíquia constrangedora de uma época mais ingênua.

Em vez disso, cada agente de IA operará sob estrita separação de privilégios. Acesso somente leitura por padrão. Listas de permissão de ações como padrão. Ambientes de execução isolados (sandbox) como requisito de conformidade. Deixaremos de tentar controlar o que a IA pensa e nos concentraremos inteiramente em controlar o que ela pode fazer.

Isso não é apenas uma evolução técnica; é uma mudança fundamental nos modelos de confiança. Estamos passando de "confiar, mas verificar" para "nunca confiar, sempre verificar e presumir comprometimento". O princípio do menor privilégio, há muito pregado, mas raramente praticado, torna-se inegociável quando seu desenvolvedor júnior é uma IA que processa milhares de entradas potencialmente maliciosas diariamente.

A escolha que enfrentamos

A integração da IA ​​no desenvolvimento de software é inevitável e, em grande medida, benéfica. O GitHub relata que os desenvolvedores que usam o Copilot concluem tarefas 55% mais rápido.Os ganhos de produtividade são reais e nenhuma organização que deseje manter-se competitiva pode ignorá-los.

Mas estamos numa encruzilhada. Podemos continuar pelo caminho atual, adicionando mais salvaguardas, criando filtros melhores, na esperança de desenvolver agentes de IA que não possam ser enganados. Ou podemos reconhecer a natureza fundamental da ameaça e reconstruir nossa arquitetura de segurança de acordo.

O incidente com a Samsung foi um alerta. A próxima violação de segurança não será acidental e não ficará restrita a uma única empresa. À medida que os agentes de IA adquirem mais capacidades e acessam mais sistemas, o impacto potencial cresce exponencialmente.

A pergunta para todo CISO, todo líder de engenharia e todo desenvolvedor é simples: quando a injeção de vulnerabilidades for bem-sucedida em seu ambiente (e será), o que o invasor encontrará? Descobrirá um tesouro de credenciais de longa duração ou encontrará um agente de IA que, apesar de comprometido, não tem segredos para roubar?

A escolha que fizermos agora determinará se a IA se tornará o maior acelerador do desenvolvimento de software ou a maior vulnerabilidade que já criamos. A tecnologia para construir sistemas de IA seguros e transparentes já existe. A questão é se a implementaremos antes que os atacantes nos forcem a isso.

A OWASP já identificou a injeção imediata como o principal risco. entre as 10 melhores para candidaturas a mestrado em Direito (LLM). O NIST está desenvolvendo diretrizes. Em arquiteturas de confiança zero, as estruturas já existem. A única questão é a velocidade de implementação versus a evolução dos ataques.

Biografia: Refael Angel é cofundador e diretor de tecnologia (CTO) da Sem Akeyl, onde desenvolveu a tecnologia de criptografia Zero-Trust patenteada da empresa. Engenheiro de software experiente com profundo conhecimento em criptografia e segurança na nuvem, Refael atuou anteriormente como Engenheiro de Software Sênior no centro de P&D da Intuit em Israel, onde construiu sistemas para gerenciamento de chaves de criptografia em ambientes de nuvem pública e projetou serviços de autenticação de máquinas. Ele possui um bacharelado em Ciência da Computação pela Faculdade de Tecnologia de Jerusalém, que concluiu aos 19 anos.

Refael Angel é cofundador e diretor de tecnologia (CTO) da Sem Akeyl, onde desenvolveu a tecnologia de criptografia Zero-Trust patenteada da empresa. Engenheiro de software experiente com profundo conhecimento em criptografia e segurança na nuvem, Refael atuou anteriormente como Engenheiro de Software Sênior no centro de P&D da Intuit em Israel, onde construiu sistemas para gerenciamento de chaves de criptografia em ambientes de nuvem pública e projetou serviços de autenticação de máquinas. Ele possui um bacharelado em Ciência da Computação pela Faculdade de Tecnologia de Jerusalém, que concluiu aos 19 anos.