Financiamento
OpenAI Fund Extends Investment in Adaptive Security, Bringing Series A to $55M

Adaptive Security, a empresa de cibersegurança impulsionada por IA que está pioneira em defesas contra engenharia social e ataques de impersonação, anunciou hoje um investimento adicional do OpenAI Startup Fund. A medida traz a rodada Series A da empresa para um total de $55 milhões e consolida Adaptive como o único investimento em cibersegurança do Fundo — um sinal claro de confiança em sua abordagem centrada no ser humano para defender contra as ameaças de IA mais prementes.
A Maré Crescente de Decepção Impulsionada por IA
O mundo digital está mudando rapidamente. Os sistemas de IA, antes confinados a laboratórios, agora estão integrados de forma transparente à forma como as pessoas compram, trabalham, escrevem e se comunicam. No entanto, à medida que essas ferramentas se tornam “infraestrutura invisível”, também estão alimentando uma nova classe de ameaças.
Em junho de 2025, funcionários do governo dos EUA — incluindo ministros das Relações Exteriores e um membro do Congresso — receberam mensagens geradas por IA que imitavam o Secretário de Estado Marco Rubio por meio de aplicativos de mensagens criptografadas, de acordo com um comunicado do Departamento de Estado. No mesmo mês, o CEO da OpenAI, Sam Altman, disse a uma plateia do Federal Reserve que a impersonação por IA poderia desencadear uma “crise de fraude” que chegaria “muito, muito em breve”.
Para os consumidores, as ameaças parecem não menos imediatas. Um vídeo deepfake no X falsamente prometia um programa de recompensa de 100 milhões de XRP, levando o CTO da Ripple a alertar publicamente os investidores. O FBI mais tarde revelou que os residentes de Michigan sozinhos perderam mais de $240 milhões em 2024 para esquemas de clonagem de voz por IA e vídeos falsos.
A linha comum é clara: ataques que antes eram altamente técnicos agora são altamente pessoais, erodindo a confiança em todos os níveis da sociedade.
Visão da Adaptive Security
“A cibersegurança agora começa com as pessoas, não apenas com a infraestrutura,” disse Brian Long, co-fundador e CEO da Adaptive Security. “Sem atualizar a forma como treinamos e protegemos os indivíduos, corremos o risco de entrar em um mundo onde a confiança em si mesma se torna nossa maior vulnerabilidade.”
A Adaptive foi fundada com exatamente essa visão em mente: que as pessoas são o novo perímetro. A plataforma da empresa é projetada para preparar indivíduos e organizações para a onda de impersonação habilitada por IA, combinando simulação, treinamento e defesa em tempo real em um sistema adaptativo.
A solução inclui:
-
Simulações de ataques de deepfake em voz, vídeo e mensagens para medir a resiliência contra as impersonações mais convincentes.
-
Treinamento de conscientização dinâmico que se adapta ao perfil de risco de cada usuário, garantindo que as lições ressoem e sejam lembradas.
-
Ferramentas de triagem e relatórios instantâneos que aceleram a contenção de tentativas de impersonação antes que elas se espalhem.
-
Pontuação de risco impulsionada por IA para ajudar as equipes de segurança a se concentrar em suas vulnerabilidades de maior prioridade.
Essa abordagem não apenas treina funcionários, mas também recondiciona as instituições a pensar de forma diferente sobre como a fraude se desenrola na era da IA.
Por Que os Investidores Estão Prestando Atenção
O apoio contínuo do OpenAI Startup Fund destaca como essa desafio se tornou urgente. “A Adaptive está se movendo com uma velocidade de produto incrível para construir defesas nativas de IA para ameaças igualmente avançadas,” disse Ian Hathaway, parceiro do OpenAI Startup Fund. “Sua plataforma entrega exatamente o que as equipes de segurança modernas precisam — simulações de deepfake realistas, pontuação de risco impulsionada por IA e treinamento que ressoa. Estamos orgulhosos de apoiar uma equipe que está redefinindo como as instituições permanecem resilientes na era da IA.”
Para a OpenAI, o investimento também está alinhado com seu reconhecimento mais amplo dos perigos impostos pela IA gerativa em mãos mal-intencionadas. O recente aviso de Altman sobre o colapso dos métodos de autenticação baseados em voz destaca como os salvaguardas tradicionais estão se tornando obsoletas rapidamente. “A IA derrotou completamente a maioria das maneiras pelas quais as pessoas autenticam atualmente, exceto senhas,” ele advertiu em julho.
O Caminho À Frente: Implicações para o Futuro
As implicações da abordagem da Adaptive se estendem além de qualquer empresa ou marco de financiamento. À medida que a IA gerativa continua a avançar, o equilíbrio entre decepção e detecção moldará não apenas a indústria de segurança, mas também como as sociedades funcionam em um mundo de autenticidade borrada.
Se a voz, o vídeo e o texto não podem mais ser confiáveis à primeira vista, as instituições serão forçadas a repensar a verificação em todos os níveis. Os bancos podem precisar abandonar as impressões digitais de voz, os tribunais podem precisar de novos padrões para evidências digitais e os empregadores podem precisar de salvaguardas contínuas contra candidatos a empregos deepfake. A própria mecânica da confiança — como sabemos quem está falando, com quem estamos transacionando ou se uma mensagem é genuína — está sendo reescrita em tempo real.
O modelo da Adaptive aponta para um possível futuro: um mundo onde treinamento, simulação e defesa adaptativa se tornam tão rotineiros quanto as verificações de antivírus costumavam ser. Os funcionários podem um dia enfrentar simulações de deepfake com a mesma frequência que os exercícios de incêndio, e as organizações podem confiar em pontuações de risco impulsionadas por IA para tomar decisões diárias sobre comunicação e acesso.
Nesse sentido, a tecnologia sinaliza uma mudança cultural na cibersegurança. A proteção não é mais apenas sobre manter as redes seguras — é sobre reforçar o julgamento humano em escala, garantindo que mesmo na era de falsificações perfeitas, as pessoas mantenham a capacidade de reconhecer o que é real.












