Financiamento
Fundo OpenAI amplia investimento em segurança adaptativa, elevando a Série A para US$ 55 milhões

Segurança Adaptativa, a empresa de segurança cibernética baseada em IA, pioneira em defesas contra engenharia social e ataques de personificação, anunciou hoje um investimento adicional da Fundo de Startups OpenAI. A mudança eleva a rodada da Série A da empresa para um total de $ 55 milhões e consolida a Adaptive como o único investimento em segurança cibernética do Fundo — um sinal claro de confiança em sua abordagem centrada no ser humano para defesa contra as ameaças de IA mais urgentes.
A crescente onda de enganos impulsionados pela IA
O mundo digital está mudando rapidamente. Sistemas de IA, antes restritos a laboratórios, agora estão perfeitamente integrados à forma como as pessoas compram, trabalham, escrevem e se comunicam. No entanto, à medida que essas ferramentas se tornam "infraestrutura invisível", elas também alimentam uma nova classe de ameaças.
Em junho de 2025, autoridades norte-americanas — incluindo ministros dos Negócios Estrangeiros e um membro em exercício do Congresso — recebeu mensagens geradas por IA representando o Secretário de Estado Marco Rubio por meio de aplicativos criptografados, de acordo com um comunicado do Departamento de Estado. No mesmo mês, o CEO da OpenAI, Sam Altman, disse a uma plateia do Federal Reserve que a personificação da IA poderia desencadear uma "crise de fraude" que chegaria "muito, muito em breve".
Para os consumidores, as ameaças não parecem menos imediatas. vídeo deepfake no X prometia falsamente um programa de recompensa de 100 milhões de XRP, levando o CTO da Ripple a alertar publicamente os investidores. O FBI revelou mais tarde que os residentes de Michigan perderam mais de US$ 240 milhões em 2024 para clonagem de voz de IA e esquemas de vídeo falso.
O ponto em comum é claro: ataques que antes eram altamente técnicos agora são altamente pessoais, corroendo a confiança em todos os níveis da sociedade.
Visão da Adaptive Security
"A cibersegurança agora começa com as pessoas, não apenas com a infraestrutura”, ditou Brian Longo, cofundador e CEO da Adaptive Security. “Sem melhorar a forma como treinamos e protegemos os indivíduos, corremos o risco de entrar num mundo onde a própria confiança se torna a nossa maior vulnerabilidade.”
A Adaptive foi fundada com exatamente essa visão em mente: as pessoas são o novo perímetro. A plataforma da empresa foi projetada para preparar indivíduos e organizações para a onda de personificação habilitada por IA, combinando simulação, treinamento e defesa em tempo real em um único sistema adaptativo.
A solução inclui:
-
Simulações de ataques deepfake por meio de voz, vídeo e mensagens para medir a resiliência em relação às imitações mais convincentes.
-
Treinamento de conscientização dinâmica que se adapta ao perfil de risco de cada usuário, garantindo que as lições repercutam e sejam aplicadas.
-
Ferramentas instantâneas de triagem e relatórios que aceleram a contenção de tentativas de personificação antes que elas se espalhem.
-
Pontuação de risco com tecnologia de IA para ajudar as equipes de segurança a se concentrarem em suas vulnerabilidades de maior prioridade.
Essa abordagem não apenas treina funcionários, mas também recondiciona as instituições a pensar de forma diferente sobre como a fraude se desenvolve na era da IA.
Por que os investidores estão prestando atenção
O apoio contínuo do OpenAI Startup Fund ressalta a urgência desse desafio. “A Adaptive está avançando com uma velocidade incrível para desenvolver defesas nativas de IA contra ameaças igualmente avançadas”, afirmou. Ian Hathaway, sócio da OpenAI Startup Deposite. A plataforma deles oferece exatamente o que as equipes de segurança modernas precisam — simulações realistas de deepfake, pontuação de risco com tecnologia de IA e treinamento eficaz. Temos orgulho de apoiar uma equipe que está remodelando a forma como as instituições se mantêm resilientes na era da IA.
Para a OpenAI, o investimento também se alinha ao seu reconhecimento mais amplo dos perigos representados pela IA generativa em mãos maliciosas. O recente alerta de Altman sobre o colapso dos métodos de autenticação por voz destaca a rapidez com que as salvaguardas tradicionais estão se tornando obsoletas. "A IA derrotou completamente a maioria das formas de autenticação atuais, além de senhas", alertou ele em julho.
O Caminho à Frente: Implicações para o Futuro
As implicações da abordagem da Adaptive vão além de qualquer empresa ou marco de financiamento. À medida que a IA generativa avança, o equilíbrio entre engano e detecção moldará não apenas o setor de segurança, mas também o funcionamento das sociedades em um mundo de autenticidade obscura.
Se voz, vídeo e texto não forem mais confiáveis pelo seu valor nominal, as instituições serão forçadas a repensar a verificação em todos os níveis. Os bancos podem precisar abandonar as impressões vocais biométricas, os tribunais podem precisar de novos padrões para evidências digitais e os empregadores podem precisar de salvaguardas contínuas contra candidatos a emprego que usam deepfakes. A própria mecânica da confiança — como sabemos quem está falando, com quem estamos negociando ou se uma mensagem é genuína — está sendo reescrita em tempo real.
O modelo da Adaptive aponta para um futuro possível: um mundo onde treinamento, simulação e defesa adaptativa tornar-se tão rotineiro quanto as varreduras antivírus já foram. Os funcionários poderão um dia enfrentar simulações de deepfake com a mesma frequência que simulações de incêndio, e as organizações poderão contar com pontuações de risco baseadas em IA para tomar decisões diárias sobre comunicação e acesso.
Nesse sentido, a tecnologia sinaliza uma mudança cultural na segurança cibernética. A proteção não se trata mais apenas de manter as redes seguras — trata-se de reforçar o julgamento humano em escala, garantindo que, mesmo em uma era de falsificações perfeitas, as pessoas mantenham a capacidade de reconhecer o que é real.












