Suivez nous sur

Le fonds OpenAI étend son investissement dans la sécurité adaptative, portant sa série A à 55 millions de dollars

Financement

Le fonds OpenAI étend son investissement dans la sécurité adaptative, portant sa série A à 55 millions de dollars

mm
Cofondateurs : Andrew Jones (CPO) et Brian Long (PDG)

Sécurité adaptative, la société de cybersécurité basée sur l'IA, pionnière dans la défense contre l'ingénierie sociale et les attaques d'usurpation d'identité, a annoncé aujourd'hui un investissement de suivi de la part du Fonds de démarrage OpenAI. Cette opération porte le tour de financement de série A de la société à un total de 55 millions de dollars et consolide Adaptive comme le seul investissement du Fonds en matière de cybersécurité — un signal clair de confiance dans son approche centrée sur l'humain pour se défendre contre les menaces d'IA les plus urgentes.

La vague croissante de tromperies alimentées par l'IA

Le monde numérique évolue rapidement. Les systèmes d'IA, autrefois confinés aux laboratoires, sont désormais intégrés de manière transparente aux habitudes de consommation, de travail, d'écriture et de communication des individus. Pourtant, en devenant des « infrastructures invisibles », ces outils alimentent également une nouvelle catégorie de menaces.

En juin 2025, des responsables américains — dont des ministres des Affaires étrangères et un membre en exercice du Congrès — a reçu des messages générés par l'IA se faisant passer pour le secrétaire d'État Marco Rubio via des applications chiffrées, selon un avis du Département d'État. Le même mois, le PDG d'OpenAI, Sam Altman, a déclaré devant la Réserve fédérale que l'usurpation d'identité par IA pourrait déclencher une « crise de fraude » imminente.

Pour les consommateurs, les menaces ne semblent pas moins immédiates. une vidéo deepfake sur X promettait faussement un programme de récompense de 100 millions de XRP, conduisant le directeur technique de Ripple à avertir publiquement les investisseurs. Le FBI a révélé plus tard que les habitants du Michigan à eux seuls avaient perdu plus de 240 millions de dollars en 2024 au clonage de voix par IA et aux faux schémas vidéo.

Le fil conducteur est clair : les attaques autrefois très techniques sont désormais très personnelles, érodant la confiance à tous les niveaux de la société.

La vision d'Adaptive Security

"« La cybersécurité commence désormais par les personnes, et pas seulement par les infrastructures », dit Brian Long, co-fondateur et PDG d'Adaptive Security. « Si nous n’améliorons pas notre façon de former et de protéger les individus, nous risquons de nous diriger vers un monde où la confiance elle-même deviendra notre plus grande vulnérabilité. »

Adaptive a été fondée avec cette vision précise : l'humain est le nouveau périmètre. La plateforme de l'entreprise est conçue pour préparer les individus et les organisations à la vague d'usurpation d'identité par l'IA, en combinant simulation, formation et défense en temps réel dans un seul système adaptatif.

La solution comprend :

  • Simulations d'attaques Deepfake à travers la voix, la vidéo et la messagerie pour mesurer la résilience face aux imitations les plus convaincantes.

  • Formation à la sensibilisation dynamique qui s'adapte au profil de risque de chaque utilisateur, garantissant que les leçons résonnent et restent en vigueur.

  • Outils de triage et de reporting instantanés qui accélèrent le confinement des tentatives d’usurpation d’identité avant qu’elles ne se propagent.

  • Notation des risques basée sur l'IA pour aider les équipes de sécurité à se concentrer sur leurs vulnérabilités les plus prioritaires.

Cette approche permet non seulement de former les employés, mais aussi de reconditionner les institutions à réfléchir différemment à la manière dont la fraude se déroule à l’ère de l’IA.

Pourquoi les investisseurs y prêtent attention

Le soutien continu du Fonds de démarrage OpenAI souligne l'urgence de ce défi. « Adaptive évolue à une vitesse incroyable pour créer des défenses natives de l'IA contre des menaces tout aussi avancées », a déclaré Ian Hathaway, partenaire de la startup OpenAI de Ciels bleus. « Leur plateforme offre exactement ce dont les équipes de sécurité modernes ont besoin : des simulations réalistes de deepfakes, une évaluation des risques basée sur l'IA et une formation pertinente. Nous sommes fiers de soutenir une équipe qui révolutionne la résilience des institutions à l'ère de l'IA. »

Pour OpenAI, cet investissement s'inscrit également dans une prise de conscience plus large des dangers posés par l'IA générative entre des mains malveillantes. L'avertissement récent d'Altman concernant l'effondrement des méthodes d'authentification vocale souligne la rapidité avec laquelle les protections traditionnelles deviennent obsolètes. « L'IA a complètement démantelé la plupart des moyens d'authentification actuels, autres que les mots de passe », a-t-il averti en juillet.

La route à suivre : implications pour l'avenir

Les implications de l'approche d'Adaptive vont au-delà d'une entreprise ou d'un financement. À mesure que l'IA générative progresse, l'équilibre entre tromperie et détection façonnera non seulement le secteur de la sécurité, mais aussi le fonctionnement des sociétés dans un monde où l'authenticité est floue.

Si la voix, la vidéo et le texte ne sont plus dignes de confiance, les institutions seront contraintes de repenser la vérification à tous les niveaux. Les banques pourraient devoir abandonner les empreintes vocales biométriques, les tribunaux pourraient avoir besoin de nouvelles normes pour les preuves numériques, et les employeurs pourraient avoir besoin de protections permanentes contre les faux profils. Les mécanismes mêmes de la confiance – comment savoir qui parle, avec qui on transige ou si un message est authentique – sont en train d'être réécrits en temps réel.

Le modèle d’Adaptive pointe vers un avenir possible : un monde où formation, simulation et défense adaptative Devenir aussi routinier que l'étaient autrefois les analyses antivirus. Les employés pourraient un jour être confrontés à des exercices de deepfake aussi réguliers que des exercices d'incendie, et les organisations pourraient s'appuyer sur des scores de risque basés sur l'IA pour prendre des décisions quotidiennes en matière de communication et d'accès.

En ce sens, la technologie signale une changement culturel dans la cybersécurité. La protection ne consiste plus seulement à assurer la sécurité des réseaux : il s’agit de renforcer le jugement humain à grande échelle, en veillant à ce que même à l’ère des contrefaçons parfaites, les gens conservent la capacité de reconnaître ce qui est réel.

Antoine est un leader visionnaire et partenaire fondateur d'Unite.AI, animé par une passion inébranlable pour façonner et promouvoir l'avenir de l'IA et de la robotique. Entrepreneur en série, il croit que l'IA sera aussi perturbatrice pour la société que l'électricité, et on le surprend souvent en train de s'extasier sur le potentiel des technologies disruptives et de l'AGI.

En futuriste, il se consacre à l'exploration de la manière dont ces innovations façonneront notre monde. En outre, il est le fondateur de Titres.io, une plateforme axée sur l’investissement dans les technologies de pointe qui redéfinissent l’avenir et remodèlent des secteurs entiers.