Relatórios
Do humano ao híbrido: por dentro do relatório de 2025 da Exabeam sobre risco interno impulsionado pela IA

By
Antoine Tardif, CEO e fundador da Unite.AI
O risco virou para dentro – e isso muda a arquitetura
Se a principal ameaça estiver interna, “mais firewall” não é a resposta. É identidade, acesso e comportamento. Pense na verificação contínua de que está fazendo o que, com qual Dados e se esse padrão é normal. Regionalmente, a maioria dos mercados agora trata os insiders como a principal preocupação; o principal ponto fora da curva é a APJ (Ásia-Pacífico e Japão), onde muitos ainda temem mais os invasores externos. Para os líderes, a tradução prática é redirecionar os gastos para:
- Controles de identidade mais fortes (MFA que se mantém, acesso baseado em risco, privilégio mínimo que é realmente aplicado).
- Monitoramento com reconhecimento de dados em SaaS, endpoints, armazenamento e e-mail para que movimentos anormais sejam visíveis.
- Análise comportamental que aprende padrões normais por pessoa, equipe e sistema e alerta sobre desvios significativos.
A implicação organizacional: a segurança e os proprietários dos dados devem trabalhar juntos. Se você não consegue responder "quem acessou quais dados sensíveis esta semana e foi algo típico deles?", você não consegue enxergar o caminho moderno para violações (conta comprometida → preparação silenciosa de dados → exfiltração rápida).
A IA reformulou a definição de “insider”
IA das sombras é a nova TI paralela. Os funcionários colam códigos, contratos, listas de clientes ou prompts com contexto sensível em modelos não aprovados. É por isso que 76% A figura importa: significa que este não é um problema de nicho. Trate a GenAI como acesso privilegiado— aprovar ferramentas específicas, registrar o uso quando legal e impedir que classes de dados protegidas (PII regulamentadas, segredos comerciais) entrem em modelos de terceiros. Aliar política à capacitação: oferecer às pessoas opções de IA sancionadas para que não se sintam forçadas a agir de forma desonesta.
Também há um novo ator por dentro: Agentes AIAs equipes estão conectando agentes a fluxos de trabalho com credenciais reais e chaves de API. Eles são "pessoas internas não humanas". Eles não se cansam e raramente reclamam — até se perderem. Isso exige dois controles que os executivos devem reconhecer:
- Objetivo: todo agente precisa de um proprietário, um trabalho claro e permissões mínimas.
- Observabilidade: todo agente merece a mesma trilha de auditoria e detecção de anomalias que um humano recebe.
UEBA (Análise de Comportamento de Usuário e Entidade) é uma detecção que se concentra em comportamento, não apenas assinaturas e executivos devem se familiarizar com isso. Ele cria uma linha de base para cada usuário ou entidade (incluindo bots, contas de serviço e agentes) aprendendo:
- Normas de séries temporais: tempos típicos de login, volumes de dados ou destinos.
- Contexto de grupo de pares: como um analista financeiro se comporta em comparação a outros analistas financeiros.
- Padrões de sequência: ordenações incomuns (por exemplo, primeiro login de VPN → alteração imediata de privilégio → download em massa).
Quando a atividade se desvia dos padrões aprendidos, a UEBA pontua o risco e revela outliers. Tecnicamente, isso se baseia em estatística e aprendizado de máquina (métodos não supervisionados e semissupervisionados) que prosperam em dados de log sem a necessidade de rótulos perfeitos. Em termos simples: a UEBA transforma pilhas de eventos em "isso é normal para eles agora mesmo?"
Feche a lacuna analítica e a lacuna cultural
Aqui está a exposição real: apenas 44% das organizações usam UEBA, embora o risco interno seja agora o problema principal. Ao mesmo tempo, 74% dos profissionais afirmam que os líderes subestimam as ameaças internas. Essa lacuna cultural atrasa a contratação, a criação de ferramentas e a formulação de políticas. A solução para ambas as lacunas se parece com isso:
Transforme o comportamento em um sinal de primeira classe. Consolide registros de identidade, endpoint, administração de SaaS, e-mail e movimentação de dados para que uma pessoa (ou agente) tenha uma única história em todos os sistemas. Invista em correlação antes de painéis. Se o SOC não conseguir unir a identidade entre as ferramentas, ele deixará de detectar abusos silenciosos e exfiltrações em câmera lenta.
Equilibre privacidade e detecção — desde o início. O obstáculo mais comum aos programas de insiders é a resistência à privacidade. Resolva-o com análises com finalidade limitada, acesso à telemetria baseado em funções, janelas de retenção claras e documentação transparente do que você analisa e por quê. Quando bem aplicadas, as proteções de privacidade permitem uma detecção mais robusta, pois desbloqueiam os fluxos de dados que as equipes precisam.
Meça resultados, não contagens de ferramentas. Os executivos devem solicitar três números mensalmente:
- Hora de detectar Comportamento anormal
- Hora de conter incidentes internos
- Porcentagem de incidentes capturados por análise de comportamento versus sorte ou auditorias posteriores.
Vincule o orçamento à melhoria dessas métricas, não à quantidade de produtos pontuais “implantados”.
Trate a GenAI como um sistema de produção. Estabeleça listas de permissões, categorias de dados com limites e registros para prompts e saídas onde for legal. Dê espaço para o produto e o jurídico, para que "agir rápido" nunca signifique "espalhar dados em caixas-pretas".
Defina uma linha de base para todos e tudo. Pessoas, contas de serviço, scripts de RPA e agentes de IA têm sua própria linha de base. Você busca por desvios — novos dados acessados, horários incomuns do dia, destinos estranhos ou sequências que não correspondem à tarefa a ser realizada.
Resumo
Desde Do humano ao híbrido: como a IA e a lacuna analítica estão alimentando o risco interno é mais do que um instantâneo dos riscos atuais — é uma prévia de para onde a segurança deve ir em seguida. Ameaças internas, amplificadas pela IA, não são mais exceções, mas a premissa básica. Para CISOs e CEOs, o caminho a seguir significa migrar de defesas de perímetro para estratégias centradas em identidade, tratando a GenAI com a mesma cautela que as contas privilegiadas e dando aos humanos e aos agentes de IA suas próprias bases comportamentais. As organizações que terão sucesso serão aquelas que unificarem a telemetria, adotarem métricas orientadas a resultados e alinharem a liderança com as operações. Nesse sentido, o relatório da Exabeam é menos um alerta e mais um manual para construir resiliência em um futuro definido pela IA.
Antoine é um líder visionário e sócio fundador da Unite.AI, movido por uma paixão inabalável por moldar e promover o futuro da IA e da robótica. Um empreendedor em série, ele acredita que a IA será tão disruptiva para a sociedade quanto a eletricidade, e é frequentemente pego delirando sobre o potencial das tecnologias disruptivas e da AGI.
Como um futurista, ele se dedica a explorar como essas inovações moldarão nosso mundo. Além disso, ele é o fundador da Valores Mobiliários.io, uma plataforma focada em investir em tecnologias de ponta que estão redefinindo o futuro e remodelando setores inteiros.
Você pode gostar
-


Teste comparativo do Hack The Box: Equipes com inteligência artificial superam analistas humanos de segurança cibernética.
-


Relatório da Manifest revela lacuna na prontidão para IA, enquanto equipes de segurança corporativa enfrentam dificuldades com visibilidade e governança.
-


Panorama da Manufatura e da Cadeia de Suprimentos em 2026: IA, Resiliência e o Caminho a Seguir
-


Estado da IA nas Empresas em 2026: A Deloitte mapeia a "margem inexplorada" da IA empresarial.
-


Não, a IA não está protelando. Você está olhando para o placar errado.
-


O retorno sobre o investimento (ROI) de dados de treinamento de IA de alta qualidade: insights do relatório LXT de 2025.