Financement
VeryAI lève 10 millions de dollars en amorçage pour lancer une plateforme de « preuve de réalité » par scan palmaire à l'ère des deepfakes

Très IA a soulevé 10 millions de dollars en financement de démarrage pour développer ce qu'elle appelle la première au monde Plateforme « Preuve de la réalité », un système conçu pour vérifier qu'une personne interagissant en ligne est bien humaine. Ce tour de table était mené par Polychain Capital, avec la participation de Institut Berggruen et Anagram. Ce financement coïncide avec le lancement du premier produit de la société : une plateforme de vérification d’identité par scan palmaire sans matériel, fonctionnant sur les smartphones standard.
À mesure que les systèmes d'intelligence artificielle facilitent de plus en plus la fabrication d'images, de vidéos, de voix et d'identités numériques complètes, le défi de la vérification de l'authenticité en ligne s'est intensifié. Deepfakes Les contenus générés par l'IA sont désormais capables de contourner de nombreuses méthodes de vérification traditionnelles, notamment la reconnaissance faciale et les codes d'authentification à usage unique. L'approche de VeryAI introduit une nouvelle couche biométrique visant à combler ce déficit croissant de confiance numérique.
L'entreprise prévoit d'utiliser ces nouveaux capitaux pour étendre sa plateforme de sécurité Proof of Reality, en développant des outils permettant de distinguer les personnes réelles des identités synthétiques et des acteurs générés par l'IA au sein des systèmes numériques.
Pourquoi la vérification d'identité entre dans une nouvelle phase
Historiquement, chaque transition technologique majeure a nécessité de nouvelles méthodes de vérification d'identité. Les mots de passe et les protocoles de cybersécurité ont émergé avec Internet, tandis que les smartphones ont popularisé l'authentification biométrique, notamment la reconnaissance d'empreintes digitales et faciale.
L'essor de l'IA générative crée un nouvel ensemble de vulnérabilités. outils de contrefaçon profonde Il est possible de reconstituer des images faciales à partir de photos publiques et de produire des répliques convaincantes capables de contourner de nombreux systèmes de vérification d'identité existants. Parallèlement, les attaquants compromettent les systèmes plus rapidement que jamais. Le temps moyen nécessaire pour pénétrer un système au sein d'une organisation a considérablement diminué ces dernières années, réduisant drastiquement les fenêtres de réaction des équipes de sécurité.
La technologie de reconnaissance faciale a également fait l'objet d'examens minutieux en raison des disparités de précision observées selon les groupes démographiques. Certaines études ont révélé des taux de faux positifs très variables en fonction de l'origine ethnique et des données d'entraînement. Conjugués à la disponibilité croissante d'images faciales en ligne, ces facteurs soulèvent des questions quant à la fiabilité de l'authentification faciale comme norme d'identité numérique.
Dans ce contexte, les chercheurs et les entreprises de sécurité explorent des signaux biométriques alternatifs, plus difficiles à reproduire ou à exploiter.
Un signal biométrique dissimulé à la vue de tous
Le système de VeryAI repose sur une caractéristique biométrique qui a bénéficié d'une bien moindre visibilité publique : paume humaine.
Alors que les visages sont omniprésents sur les réseaux sociaux et dans les images publiques, les paumes des mains sont rarement photographiées ou enregistrées en haute résolution. De ce fait, il est beaucoup plus difficile pour les personnes mal intentionnées de les capturer et de les reproduire. La structure des paumes présente également des motifs complexes de veines, de lignes et de caractéristiques géométriques qui constituent une signature biométrique unique.
Selon l'entreprise, son système de vérification palmaire présente un taux de fausse acceptation d'environ une sur dix millions lors de la numérisation d'une seule main. Lorsque les deux mains sont utilisées simultanément, ce taux chute à environ une sur cent mille milliards, ce qui correspond à une précision quasi parfaite, selon l'entreprise.
Autre point tout aussi important : cette technologie ne nécessite aucun matériel dédié. L’utilisateur n’a qu’à lever la main devant la caméra de son smartphone. Des algorithmes de vision par ordinateur extraient les caractéristiques biométriques de l’image de la paume et génèrent une représentation mathématique servant à l’authentification.
Cette conception permet aux organisations de déployer la vérification palmaire via des appareils mobiles standard plutôt que des scanners biométriques spécialisés.
Vérification d'identité sans matériel
Les systèmes biométriques traditionnels reposent souvent sur du matériel spécifique : lecteurs d’empreintes digitales, scanners infrarouges ou capteurs de reconnaissance faciale dédiés. Bien qu’efficaces en environnement contrôlé, ces systèmes peuvent s’avérer coûteux à déployer à grande échelle.
La plateforme VeryAI vise à lever cet obstacle en fonctionnant entièrement par logiciel. Le système utilise les caméras des smartphones combinées à des modèles de vision par ordinateur entraînés à reconnaître les caractéristiques de la paume avec une grande précision.
Du point de vue du déploiement, cette architecture permet à la vérification d'identité de fonctionner partout où un smartphone est disponible. Étant donné que la grande majorité des adultes des pays développés possèdent désormais un smartphone, cette approche élargit considérablement les environnements où la vérification biométrique peut avoir lieu.
Le modèle commercial initial de l'entreprise cible les organisations qui ont besoin d'une assurance d'identité robuste à grande échelle, notamment :
- plateformes fintech
- échanges de cryptomonnaie
- réseaux de médias sociaux
- systèmes d'identité gouvernementaux
- marchés en ligne
Plutôt que de vendre du matériel, VeryAI propose sa technologie sous forme de service de vérification intégré, facturant les organisations en fonction de leur activité de vérification mensuelle.
La protection de la vie privée dès la conception
Les systèmes biométriques soulèvent souvent des inquiétudes quant au stockage et à la protection des données personnelles. Un risque majeur pour de nombreuses plateformes biométriques réside dans le fait que les images biométriques brutes, telles que les empreintes digitales ou les scans faciaux, peuvent devenir des cibles privilégiées pour les pirates informatiques si elles sont stockées de manière inappropriée.
VeryAI affirme que son architecture évite totalement le stockage des images biométriques.
Lorsqu'un utilisateur vérifie son identité, le système extrait des caractéristiques distinctives de l'image de la paume et les convertit en un représentation mathématique irréversibleCette représentation ne peut être utilisée pour reconstituer l'image originale de la paume et ne peut être directement liée à l'identité d'une personne.
Au lieu de maintenir un référentiel central de données biométriques, le système génère un identifiant non traçable cela prouve qu'un événement de vérification a eu lieu sans exposer les données biométriques sous-jacentes.
Ce modèle s'apparente aux systèmes d'authentification cryptographiques où seul le résultat de la vérification est stocké, et non les données personnelles brutes. En dissociant la vérification d'identité des informations permettant d'identifier une personne, la plateforme vise à réduire les risques liés aux bases de données biométriques.
Création d'une couche de « preuve de réalité » pour Internet
L'entreprise décrit sa vision plus large comme la mise en place d'une couche d'infrastructure de preuve de réalité pour le monde numérique.
Avec la prolifération des agents d'IA et des médias synthétiques, il pourrait devenir de plus en plus difficile de distinguer l'activité humaine des comportements automatisés ou fabriqués. Les réseaux sociaux peinent déjà à détecter les bots, tandis que les plateformes financières sont confrontées à des menaces croissantes liées à la fraude assistée par l'IA.
VeryAI travaille sur des outils supplémentaires destinés à vérifier si les agents d'IA sont contrôlés par des personnes physiques, aidant ainsi les organisations à déterminer si une entité numérique est contrôlée par une personne réelle.
Ce concept pourrait à terme s'étendre au-delà de la vérification d'identité pour inclure des signaux d'authenticité pour les médias, les transactions et les communications. Dans de tels systèmes, les interactions comporteraient une preuve cryptographique attestant qu'elles proviennent d'un participant humain vérifié.
L'avenir de la confiance numérique
La vérification d'identité pourrait bientôt devenir l'un des défis d'infrastructure les plus critiques de l'ère de l'IA.
Les systèmes d'IA générative progressent rapidement dans la production d'images, de voix et de documents synthétiques imitant fidèlement des individus réels. Parallèlement, les interactions en ligne, des transactions financières aux échanges sociaux, sont de plus en plus souvent médiatisées par des plateformes numériques où l'identité peut être difficile à vérifier.
Dans un tel environnement, les systèmes capables de prouver qu'un participant est véritablement humain pourraient devenir des composantes fondamentales des écosystèmes numériques.
Les signaux biométriques, comme les empreintes palmaires, représentent une piste prometteuse, notamment s'ils peuvent être déployés à grande échelle sans matériel spécialisé. Associées à des méthodes cryptographiques respectueuses de la vie privée, ces technologies pourraient permettre de mettre en place des systèmes de vérification à la fois sécurisés et peu intrusifs.
À terme, les cadres de preuve de réalité pourraient s'étendre au-delà des contrôles d'identité pour influencer des domaines tels que la gouvernance décentralisée, l'authentification des médias numériques et la responsabilité des agents d'IA.
Alors que l'intelligence artificielle continue de transformer le paysage numérique, la capacité à vérifier avec fiabilité ce qui est réel et qui l'est réellement pourrait devenir l'un des défis technologiques majeurs de la décennie. Les systèmes capables d'offrir cette garantie sans compromettre la confidentialité ni la facilité d'utilisation pourraient jouer un rôle crucial dans le rétablissement de la confiance dans le monde numérique.






