Entrevistas
Kevin Paige, CISO da ConductorOne – Série de Entrevistas

Kevin PaigePaige, CISO da ConductorOne, é um executivo veterano em cibersegurança com mais de três décadas de experiência em governos, tecnologia empresarial e startups de alto crescimento. Baseado na região da Baía de São Francisco, ele lidera a estratégia de segurança de identidade da empresa, além de assessorar organizações em segurança e governança da força de trabalho moderna. Paige atuou anteriormente como CISO na Uptycs, Flexport e MuleSoft, onde ajudou a construir e escalar programas de segurança durante períodos de rápido crescimento. No início de sua carreira, ocupou cargos de liderança em segurança e infraestrutura na Salesforce e na xMatters, e serviu tanto no Exército quanto na Força Aérea dos EUA. Além de suas funções operacionais, ele é ativo no ecossistema de startups de cibersegurança como consultor e investidor.
CondutorUm Desenvolve uma plataforma de governança de identidade e gerenciamento de acesso projetada para ambientes modernos de nuvem e híbridos. Sua tecnologia oferece visibilidade unificada de identidades e permissões em aplicativos, infraestrutura e sistemas locais, permitindo que as organizações automatizem revisões de acesso, apliquem o princípio do menor privilégio e reduzam os riscos de segurança baseados em identidade. Ao combinar análises de identidade com fluxos de trabalho automatizados, a plataforma ajuda as equipes de segurança a gerenciar o acesso em escala, melhorando a conformidade e a eficiência operacional.
Você possui uma longa carreira que abrange operações cibernéticas militares na Força Aérea dos EUA, cargos de liderança em segurança corporativa em empresas como MuleSoft, Flexport e Salesforce, e agora atua como CISO na ConductorOne. Como sua perspectiva sobre segurança de identidade evoluiu ao longo dessas funções e por que você acredita que a identidade se tornou um dos campos de batalha mais críticos na segurança cibernética moderna?
Na Força Aérea, a identificação era muito mais simples: nível de autorização, necessidade de saber, tudo protegido por firewalls, e pronto. Na MuleSoft, o foco passou a ser a escalabilidade: provisionar milhares de usuários em centenas de aplicativos SaaS sem criar lacunas. Na Flexport, o perímetro desapareceu completamente e a identificação era o único controle que ainda funcionava, independentemente de onde a pessoa estivesse.
Agora, na ConductorOne, a identidade está passando por sua transformação mais fundamental. Não se trata mais apenas de pessoas — trata-se de máquinas, APIs, contas de serviço e agentes de IA que atuam de forma autônoma. As ferramentas que a maioria das organizações usa foram projetadas para um mundo que não existe mais.
A identidade é o campo de batalha crucial porque afeta tudo. Você pode ter a melhor segurança de endpoints e segmentação de rede do mundo — se algo tiver o acesso errado, nada disso importa.
O relatório "Future of Identity", que será lançado em breve, revelou que 95% das empresas afirmam que agentes de IA já executam tarefas autônomas de TI ou segurança. Que tipos de tarefas esses agentes estão realizando atualmente e com que rapidez vocês preveem que o nível de autonomia deles aumentará?
O que me surpreendeu não foi a adoção em si, mas a velocidade. No ano passado, 96% planejavam implantar agentes. Este ano, 95% já o fizeram. Isso não é uma curva gradual, é uma ultrapassagem de um limiar.
Os agentes gerenciam fluxos de trabalho de suporte técnico, triagem de alertas, revisões de acesso, provisionamento e, em alguns casos, correção automatizada. O detalhe que a maioria das pessoas ignora: 64% das organizações já permitem que os agentes ajam de forma autônoma, com revisão apenas após a ação. O agente age primeiro, um humano verifica depois — se é que verifica.
Os agentes que hoje realizam tarefas de suporte técnico estarão tomando decisões de segurança dentro de 12 meses. A questão não é se a autonomia aumentará, mas sim se a governança acompanhará esse ritmo. No momento, não está acompanhando.
O relatório destaca a ascensão de identidades não humanas — incluindo interfaces de programação de aplicativos (APIs), bots e agentes de IA. Por que essas identidades de máquina estão crescendo tão rapidamente e por que muitas organizações ainda têm dificuldades para gerenciá-las de forma eficaz?
Três forças convergentes. A adoção da nuvem e do SaaS significa que cada integração precisa de sua própria identidade. O DevOps gera identidades de máquina em escala — cada pipeline, contêiner e microsserviço. E os agentes de IA estão adicionando uma categoria inteiramente nova que não apenas detém acesso, mas o utiliza para tomar decisões.
As organizações enfrentam dificuldades porque as ferramentas não foram criadas para isso. O IAM tradicional pressupõe uma pessoa que entra e sai do sistema. Identidades não humanas operam continuamente, não respondem à autenticação multifator (MFA), frequentemente possuem credenciais persistentes e acumulam privilégios porque ninguém revisa seu acesso como revisa o de um humano.
Há também um problema de propriedade. Quando um desenvolvedor cria uma conta de serviço e muda de equipe, quem é o proprietário? Muitas vezes, ninguém. Pesquisas do setor mostram que 97% das NHIs (Network Information Frameworks) têm privilégios excessivos. Isso não é um problema de ferramentas — é uma lacuna de governança.
Quase metade das empresas afirma que as identidades não humanas já superam em número os usuários humanos, mas apenas uma pequena porcentagem das empresas tem visibilidade completa sobre o que essas identidades podem acessar. Quais riscos surgem quando as organizações perdem a visibilidade dessas identidades automatizadas?
Três camadas. Primeiro, credenciais comprometidas. Os provedores de serviços de saúde geralmente usam chaves de API de longa duração ou tokens estáticos que não são rotacionados. Um invasor com um desses tokens tem acesso persistente que não aciona os mesmos alarmes que uma conta humana comprometida.
Em segundo lugar, o acúmulo de privilégios. Integrações que começaram com acesso de leitura silenciosamente ganham acesso de gravação. Ninguém remove permissões antigas porque ninguém está revisando as identidades das máquinas.
Terceiro — e isso está se tornando evidente rapidamente — os agentes de IA amplificam ambos os riscos. Uma conta de serviço comprometida com acesso de leitura ao banco de dados é ruim. Um agente de IA com esse mesmo acesso, capaz de resumir, compartilhar e agir autonomamente com base no que lê, é exponencialmente pior.
Nosso relatório constatou que a visibilidade do NHI (National Health Information - Informação Nacional de Saúde) está, na verdade, diminuindo — de 30% para 22% ano a ano. As organizações estão descobrindo o problema mais rápido do que conseguem resolvê-lo.
Muitas empresas veem a IA como um acelerador de produtividade, mas sua pesquisa sugere que ela também pode expandir silenciosamente a superfície de ataque. Como a adoção de ferramentas e agentes de IA cria novos riscos de segurança relacionados à identidade?
O risco mais imediato é a concessão acidental de permissões excessivas. As equipes implantam um agente de IA para um fluxo de trabalho específico, mas concedem a ele acesso mais amplo do que o necessário, porque definir permissões para máquinas é mais complexo do que para pessoas. O agente não visualiza apenas os chamados de suporte — ele visualiza todo o banco de dados de clientes.
Existe também a injeção de prompts. Agentes que processam entradas externas podem ser manipulados para executar ações não intencionais. Se o agente tiver amplo acesso, um prompt cuidadosamente elaborado transforma um assistente útil em uma ferramenta de exfiltração de dados.
Em terceiro lugar está a IA paralela. A Gartner relata que mais de 50% do uso de IA em empresas não é autorizado. Cada conexão não autorizada cria novas identidades e superfícies de ataque que a equipe de segurança não consegue detectar.
Eu vi isso acontecer em primeira mão: alguém deu acesso a um agente a sistemas internos e, em poucos dias, alguém o induziu a revelar a remuneração e o cronograma de férias do CEO. O agente funcionou conforme o planejado. A falha foi o modelo de acesso.
Tradicionalmente, a gestão de identidades e acessos tem se concentrado no login dos funcionários nos sistemas. Como a governança de identidades deve evoluir agora que agentes de software autônomos interagem cada vez mais com a infraestrutura e tomam decisões?
A mudança fundamental é de periódica para contínua. A governança tradicional opera com revisões trimestrais e recertificações anuais. Os agentes de IA operam 24 horas por dia, 7 dias por semana, tomam milhares de decisões entre os ciclos de revisão e podem alterar seu comportamento com base em uma atualização do modelo. Quando uma revisão trimestral detecta um agente com privilégios excessivos, o dano já está feito.
Três coisas precisam mudar. A governança deve ser contínua — avaliando o acesso em tempo real, não com base em um cronograma. Deve ser orientada por políticas, e não por funções — políticas dinâmicas com escopo definido para tarefas específicas, e não atribuições de funções estáticas. E deve ser totalmente auditável — cada ação do agente deve ser registrada e rastreável até quem a autorizou.
A governança de identidades precisa operar na velocidade das máquinas para governar agentes que também operam na velocidade das máquinas. É nessa incompatibilidade que reside o risco.
A ConductorOne descreve sua plataforma como uma forma de ajudar organizações a protegerem simultaneamente as identidades humanas e de máquinas. Do ponto de vista técnico, quais mudanças são necessárias na infraestrutura de identidade para proteger adequadamente os agentes de IA que operam em ambientes corporativos?
A maior mudança é a unificação. A maioria das organizações gerencia identidades humanas por meio de seus provedores de identidade (IDP) e identidades de máquinas por meio de uma rede complexa de gerenciadores de segredos e processos manuais. Os agentes de IA preenchem a lacuna entre esses dois mundos.
Três coisas precisam acontecer. Cada agente de IA precisa de uma identidade de primeira classe — não uma conta de serviço compartilhada, nem credenciais de desenvolvedor, mas uma identidade dedicada com seu próprio ciclo de vida e registro de auditoria. Essas identidades precisam de acesso sob demanda, apenas o necessário — permissões mínimas para uma tarefa específica, revogadas quando a tarefa for concluída. E as organizações precisam de monitoramento contínuo do que os agentes realmente fazem com seu acesso, não apenas do que eles têm permissão para fazer.
Na ConductorOne, governamos identidades humanas e não humanas por meio de um único plano de controle. É para lá que o setor está caminhando — 45% já utilizam ferramentas de IAM para governança de identidades não humanas, e outros 45% planejam fazê-lo em até 12 meses. A governança de identidades exclusivamente humanas está chegando ao fim.
Algumas organizações tentam gerenciar o risco da IA restringindo ou proibindo completamente as ferramentas de IA. Com base no que você observa nas empresas, essa abordagem é realista ou simplesmente leva o uso da IA para ambientes não gerenciados e menos visíveis?
Isso leva a soluções clandestinas. Sempre. Já vi isso acontecer com todas as ondas tecnológicas — BYOD, nuvem, SaaS. Quando a segurança diz não, as pessoas não desistem. Elas simplesmente param de avisar a segurança.
Segundo a Gartner, a IA paralela representa mais de 50% do uso de IA em empresas. Proibir a IA não elimina o risco — elimina a visibilidade. E você não pode proteger o que não consegue ver.
A melhor abordagem: tornar o caminho seguro o caminho mais fácil. Se a adoção de IA governada for rápida e simples, as pessoas a usarão. Se demorar seis semanas para ser aprovada, elas criarão uma conta pessoal na hora do almoço.
Proibir a IA em 2026 é como proibir a computação em nuvem em 2016. Você não está prevenindo o risco — está garantindo que não o verá chegar.
À medida que os sistemas de IA começam a agir de forma mais independente, a linha que separa a automação da autoridade torna-se tênue. Como as organizações devem pensar sobre governança, aprovações e supervisão quando agentes de IA são capazes de tomar decisões operacionais?
Pense em delegação, não em automação. Quando você delega a uma pessoa, você define o escopo, responsabiliza-a e revisa o trabalho dela. A mesma estrutura se aplica aos agentes.
Isso significa autonomia em níveis. Tarefas repetitivas de baixo risco — como redefinição de senhas e encaminhamento de chamados — são executadas de forma autônoma com registro de eventos. Ações de risco médio — como alterações na configuração de segurança e acesso privilegiado — exigem aprovação humana ou notificação em tempo real. Ações de alto risco — como dados sensíveis, acesso privilegiado e alterações irreversíveis — exigem autorização explícita antes que o agente aja.
Cada agente também precisa de um proprietário humano responsável por suas ações. Sem essa cadeia, os agentes operam em um vácuo de governança, onde ninguém responde pelas consequências.
Nosso relatório constatou que apenas 19% possuem aplicação contínua de políticas para agentes. Isso significa que 81% dependem de permissões estáticas e da sorte. Isso não é governança.
Olhando para o futuro, quais são os passos mais importantes que os líderes de segurança devem tomar nos próximos 12 a 24 meses para preparar suas estruturas de identidade e acesso para um mundo onde agentes de IA funcionam como identidades digitais completas dentro da empresa?
Cinco prioridades.
Primeiro, é preciso ter visibilidade. A maioria das organizações não sabe quantas identidades não humanas possui. Não se pode governar o que não se vê.
Em segundo lugar, trate cada agente de IA como um usuário. Identidade dedicada, permissões definidas, rotação de credenciais, revisões de acesso. Se você não daria acesso administrativo permanente a um humano para tudo, não dê a um agente.
Terceiro, passe de uma governança periódica para uma governança contínua. As revisões trimestrais não conseguem acompanhar agentes que mudam de comportamento em segundos.
Em quarto lugar, construa sua estrutura de políticas agora — antes de ter centenas de agentes. Defina limites de autonomia, requisitos de aprovação e responsabilidade enquanto ainda é gerenciável.
Quinto, unificar a governança entre identidades humanas e não humanas. Sistemas separados criam lacunas.
Os vencedores não serão as organizações que implantaram mais IA. Serão aquelas que construíram uma governança de identidade capaz de operar na velocidade das máquinas.
Obrigado pela ótima entrevista, os leitores que desejam saber mais devem visitar CondutorUm.












