Líderes de pensamento
A Selva de AI Sombra: Por Que Aprovar uma Plataforma Não é o Mesmo que Segurar o que é Construído Nela

A adoção de IA nas empresas está longe de ser sem atrito. Preocupações sobre controle de dados, conformidade regulatória e segurança acompanharam todos os estágios da jornada. Mas à medida que as organizações aumentam suas operações em plataformas importantes, como Microsoft, Salesforce e ServiceNow, há uma sensação crescente de que as questões de governança mais difíceis estão, pelo menos parcialmente, sendo abordadas. Acordos empresariais estão em vigor. Revisões de segurança foram concluídas. As plataformas são aprovadas.
O que essa confiança tende a ignorar é uma questão completamente diferente: não se a plataforma é segura, mas o que e quem está construindo.
Em várias indústrias, uma revolução silenciosa está em andamento, à medida que funcionários não técnicos usam plataformas de IA empresariais para criar agentes autônomos, fluxos de trabalho automatizados e aplicativos conectados a dados, muitas vezes em minutos, sem escrever uma única linha de código. Livres dos prazos de desenvolvimento tradicionais e restrições, esses construtores são um benefício para a eficiência organizacional. Mas essas ferramentas nunca são revisadas por uma equipe de segurança. Em muitos casos, as equipes de segurança não sabem que elas existem.
Essas ferramentas, seja classificadas como aplicativos, agentes ou automações, fazem parte de um problema crescente conhecido como IA Sombra, e representa uma das principais mudanças no risco empresarial em uma década, pelo simples fato de que as ameaças agora estão dentro.
O problema original de TI Sombra era relativamente simples: funcionários estavam usando ferramentas não autorizadas de fora da organização, e o trabalho de segurança era encontrá-las e bloqueá-las. A IA Sombra é um desafio completamente diferente. As ferramentas estão dentro das plataformas que você aprovou. As pessoas que as constroem são seus próprios funcionários. O acesso que elas usam é legítimo. E nada disso passa pelos processos de segurança projetados para capturar problemas antes que eles atinjam a produção.
O que torna isso particularmente difícil de abordar é a escala. A maioria dos líderes de segurança subestima significativamente quanto está sendo construído dentro de seus próprios ambientes. Pesquisas recentes de mais de 200 CISOs e líderes de segurança encontraram que a equipe de segurança empresarial média pode contar apenas 44% dos agentes de IA, automações e aplicativos que os usuários de negócios criaram. Isso não é uma lacuna. É um ponto cego que cobre a maioria do que está em execução.
A razão é direta: os usuários de negócios agora superam os desenvolvedores profissionais em até 10 para 1 em algumas organizações. Eles estão constantemente construindo em todos os departamentos, em plataformas projetadas para tornar a construção fácil, e então incentivados pela C-suite a construir. As equipes de segurança estão orientadas em torno de pipelines de desenvolvedores e repositórios de código. Elas nunca foram projetadas para monitorar isso.
O conceito mais comum é a crença de que aprovar uma plataforma resolve o problema de segurança. Não, isso apenas o move. Quando uma empresa assina um acordo com a Microsoft, Salesforce ou UiPath, o provedor de plataforma segura sua infraestrutura. O que os funcionários constroem em cima disso, e como o configuram, é a responsabilidade da empresa inteiramente.
O problema é que as ferramentas que os usuários de negócios criam não parecem software para os sistemas de segurança tradicionais. Não há código para digitalizar, nenhum repositório para monitorar, nenhum pipeline para inspecionar. Um agente de IA construído por um gerente de RH por meio de uma série de menus e prompts de texto é, do ponto de vista da maioria dos instrumentos de segurança, invisível.
E, no entanto, essas ferramentas estão longe de serem triviais. Pesquisas descobriram que mais da metade dos CISOs confirmou que os aplicativos construídos por negócios agora suportam processos críticos de negócios e têm acesso a dados confidenciais da empresa. As apostas são reais, e a supervisão não acompanhou.
De Zero ao Desastre
Os casos de uso são tão diversos quanto numerosos e vêm de praticamente todos os departamentos, mesmo aqueles que nunca teriam ocorrido para uma equipe de segurança para manter um olho.
Por exemplo, um coordenador de marketing constrói um agente de IA orientado para o cliente em uma plataforma totalmente sancionada para responder a perguntas de produtos. Em questão de minutos, o aplicativo está em execução, mas como alguém sem treinamento de segurança, dois pequenos erros de configuração passam despercebidos e deixam o agente com acesso direto ao banco de dados da empresa e sem limites sobre o que ele pode recuperar. Em produção, um usuário pede que ele recupere registros de funcionários. Ele faz. Como o agente também tem uma capacidade de e-mail, o usuário instrui que ele envie esses dados para um endereço pessoal. A sequência inteira leva menos de sessenta segundos. Nenhum acesso não autorizado. Nenhuma violação de plataforma. Nenhum alerta de segurança.
Isso não é um ataque sofisticado. É o resultado previsível de um funcionário bem-intencionado que constrói algo que ele não entende completamente, em uma plataforma que torna a construção fácil e a governança opcional.
A Lacuna de Governança que Ninguém Previu
Para a maioria das organizações, o problema de IA Sombra permanece abstrato até que algo dê errado. Mas o risco de negócios é mais profundo do que a resposta a uma violação.
Quando um agente construído por negócios vaza dados confidenciais, a pergunta que uma diretoria fará não é “como a configuração errada aconteceu?” Será “como ninguém sabia que a ferramenta estava em execução?” Eles não distinguirão entre uma violação causada por um atacante externo e uma causada por uma ferramenta interna mal configurada. Se os dados pessoais foram expostos e a organização carecia de visibilidade sobre o que estava em execução, a falta de supervisão é ela mesma a responsabilidade. “Um funcionário o construiu em uma plataforma aprovada” não é uma defesa, é a descrição da lacuna.
A urgência é real, mas a intenção e a execução não são a mesma coisa, e para a maioria das empresas, a lacuna entre elas permanece aberta.
A resposta não é restringir quem pode construir. Bloquear o desenvolvimento de cidadãos sacrificaria ganhos de produtividade genuínos e, na prática, não funcionaria. Os funcionários encontrariam contornos. A resposta é trazer o que está sendo construído à vista e governá-lo no ponto em que o risco realmente emerge: tempo de execução.
Isso significa entender não apenas quais agentes existem, mas como eles se comportam, quais dados eles acessam, quais sistemas eles tocam e se suas ações permanecem dentro dos limites que seus construtores pretendiam. Isso significa estabelecer guardrails que operam no nível organizacional, não apenas no ponto de configuração. E significa chegar a um lugar onde as equipes de segurança possam responder às perguntas mais básicas sobre qualquer agente em seu ambiente: quem o construiu, o que ele tem acesso a e se ele está se comportando da maneira como foi projetado?
A maioria das empresas não consegue responder a essas perguntas hoje. As organizações que chegarem lá primeiro serão aquelas que poderão escalar a adoção de IA com confiança, porque saberão o que realmente estão executando.












