Líderes de pensamento
A Segurança de IA Não Está Quebrada, Estamos Apenas Defendendo as Coisas Erradas

A indústria de cibersegurança tem um padrão para quando uma nova tecnologia surge, imediatamente começamos a construir barreiras em torno dela. Fizemos isso com a nuvem, fizemos isso com contêineres e agora estamos fazendo isso com a IA, exceto que desta vez, as barreiras que estamos construindo estão em lugares completamente errados.
Entre em qualquer revisão de segurança de empresa hoje e você ouvirá as mesmas prioridades: segurança de modelos de IA, proteção de dados de treinamento, validação de saídas e implantação de copilotos de IA. Os fornecedores estão correndo para vender ferramentas de “segurança de IA” que se concentram exclusivamente em controles de nível de modelo, como guardrails, defesas de injeção de prompts e plataformas de monitoramento de modelos.
Mas os atacantes estão usando as suas integrações de IA como rodovias para tudo o mais.
A Verdadeira Superfície de Ataque que Ninguém Está Observando
Um padrão que observamos consistentemente em ambientes de empresa conta uma história preocupante de equipes de segurança investindo pesadamente na segurança de seus ambientes de desenvolvimento de IA: controles de acesso de modelo, estruturas de governança de dados, ferramentas de segurança de MLOps. Isso dá uma falsa confiança de que a sua IA está “trancada”.
Mas quando você mapeia a verdadeira superfície de ataque, você vê que os chatbots de IA frequentemente possuem tokens de OAuth para dezenas de plataformas de SaaS, chaves de API com permissões excessivas de nuvem e relações de confiança de identidade que podem criar caminhos diretos de uma injeção de prompt simples para a infraestrutura de produção. Os modelos em si podem ser seguros, mas os ecossistemas em que vivem frequentemente estão completamente abertos e isso não é um caso de bordo.
As empresas agora usam em média 130+ aplicativos de SaaS, com integrações de IA que abrangem provedores de identidade, infraestrutura de nuvem, bancos de dados e sistemas de negócios críticos. Cada integração é um caminho de ataque potencial e cada conexão de API é uma fronteira de confiança que os atacantes estão ativamente sondando.
O problema não é que as nossas ferramentas de segurança de IA estão quebradas. É que estamos segurando componentes individuais enquanto os atacantes estão explorando as conexões entre eles.
Por Que a Segurança Centrada no Modelo Perde o Ponto
A abordagem atual de segurança de IA opera em um mal-entendido fundamental de como os ataques modernos funcionam. Tratamos a IA como um ativo autônomo que precisa de proteção, semelhante à forma como podemos segurar um banco de dados ou uma aplicação web. Mas a IA em produção não existe em isolamento. É um nó em um gráfico complexo de identidades, permissões, APIs e fluxos de dados.
Considere um típico déploi de IA de empresa. Você tem um agente de IA com acesso ao seu Google Workspace. Está conectado ao Salesforce por meio de APIs. Está integrado ao Slack para notificações. Está puxando dados de buckets de AWS S3. Está autenticado por meio do Okta ou do Azure AD. Está acionando fluxos de trabalho no ServiceNow.
A segurança tradicional de IA se concentra no modelo em si: sua postura de segurança, validação de prompts, segurança de saída. Mas os atacantes estão se concentrando nas integrações: o que eles podem alcançar por meio de contas de serviço comprometidas, onde eles podem pivotar por meio de manipulações de API, quais fronteiras de confiança eles podem cruzar por meio de integrações exploradas.
O ataque não começa ou termina com o modelo de IA. O modelo é apenas o ponto de entrada.
Os Caminhos de Ataque Não Respeitam Limites de Produto
Aqui é onde a maioria das organizações fica presa. Elas implantaram ferramentas de segurança que cada uma fornece visibilidade em um único domínio. Uma ferramenta monitora permissões de nuvem. Outra rastreia configurações de SaaS. Uma terceira gerencia governança de identidade. Uma quarta lida com gerenciamento de vulnerabilidades.
Cada ferramenta mostra a você a sua parte do quebra-cabeça. Nenhuma delas mostra como as peças se conectam.
De acordo com a Gartner, as organizações agora usam em média 45+ ferramentas de segurança. No entanto, apesar desse investimento maciço, os atacantes estão encadeando com sucesso misconfigurações em todos esses domínios porque nenhuma ferramenta pode ver o caminho de ataque completo.
Um atacante não precisa encontrar uma vulnerabilidade crítica no seu modelo de IA. Ele só precisa encontrar uma cadeia. Talvez seja um papel de IAM mal configurado anexado ao seu serviço de IA, que tem permissões para um bucket de S3, que contém credenciais para uma aplicação de SaaS que tem acesso de administrador ao seu ambiente de produção.
Cada misconfiguração individual pode ter uma pontuação “média” ou “baixa” nas suas ferramentas de segurança. Mas encadeadas? Isso é uma exposição crítica. E é completamente invisível se você estiver olhando para cada domínio de segurança isoladamente.
O Imperativo de Gerenciamento de Exposição
É por isso que a conversa precisa mudar de “segurança de IA” para gerenciamento contínuo de exposição de ameaças para ambientes integrados de IA.
Não é suficiente perguntar se os nossos modelos de IA são seguros. As equipes de segurança precisam entender o que um atacante pode realmente alcançar se comprometer uma conta de serviço de IA. Eles precisam de visibilidade sobre como as misconfigurações em nuvem, SaaS e sistemas de identidade podem ser encadeadas. Eles precisam saber como as integrações de IA estão alterando sua superfície de ataque em tempo real. E eles precisam priorizar riscos com base na capacidade de ataque real, não apenas pontuações de gravidade.
A maioria dos programas de segurança ainda prioriza riscos isoladamente, usando pontuações de CVSS e listas de verificação de conformidade que completamente ignoram se uma vulnerabilidade é realmente explorável no seu ambiente específico.
Esta lacuna é ainda mais pronunciada com sistemas de IA porque eles mudam constantemente. Novas integrações são adicionadas semanalmente. Permissões evoluem. Conexões de API mudam. Sua superfície de ataque do mês passado não é sua superfície de ataque de hoje, mas sua avaliação de segurança provavelmente é.
O Que a Segurança Consciente de Caminho de Ataque Realmente Parece
Segurar a IA em produção exige uma abordagem fundamentalmente diferente, e isso se resume a quatro mudanças de pensamento principais.
Primeiro, você precisa de visibilidade unificada em todos os domínios de segurança. Pare de pedir a cada ferramenta de segurança para operar em seu próprio silo. Suas ferramentas de segurança de nuvem, governança de identidade, gerenciamento de SaaS e varredura de vulnerabilidades todas possuem peças do quebra-cabeça do caminho de ataque. Elas precisam compartilhar dados em tempo real para que você possa ver como as misconfigurações se encadeiam.
Segundo, abrace a simulação contínua de caminho de ataque. Não espere por testes de penetração ou exercícios de equipe vermelha para descobrir caminhos exploráveis. Teste continuamente como um atacante pode se mover pelo seu ambiente, focando na explorabilidade real em vez de confiar em pontuações de gravidade teóricas.
Terceiro, priorize com base no contexto. Um bucket de S3 mal configurado não é crítico apenas porque é público. É crítico se for público e contiver credenciais e essas credenciais tiverem acesso privilegiado e forem alcançáveis a partir de um ativo exposto à internet. O contexto importa mais do que qualquer pontuação individual.
Quarto, mova-se em direção à remediação preventiva. No momento em que a sua equipe de SOC está investigando um alerta, você já perdeu tempo de resposta valioso. A defesa moderna exige a capacidade de fechar caminhos exploráveis antes que sejam armados, não após um incidente.
O Aviso que Não Podemos Ignorar
À medida que a IA se torna incorporada em todas as camadas da pilha de empresa, a superfície de ataque está se expandindo mais rápido do que as equipes de segurança podem raciocinar manualmente. Estamos adicionando integrações de IA a uma taxa 10 vezes maior do que a taxa com que as estamos segurando.
Se você está segurando a IA em isolamento, protegendo o modelo enquanto ignora o ecossistema em que opera, você já está atrasado. Os atacantes não pensam em ferramentas, pensam em caminhos. Eles não exploram vulnerabilidades individuais. Eles encadeiam misconfigurações em todo o seu ambiente.
As empresas que irão segurar a IA com sucesso não serão as que têm a maioria das ferramentas de segurança de IA. Elas serão as que entendem que a segurança de IA é inseparável do gerenciamento de exposição em toda a sua superfície de ataque.
A segurança do modelo é básica. O que importa é entender o que um atacante pode alcançar quando compromete uma integração de IA. Até que as equipes de segurança possam responder a isso continuamente, em tempo real, em todo o seu ambiente, elas não estão segurando a IA. Elas estão apenas esperando que as barreiras que construíram estejam nos lugares certos.












