Des leaders d'opinion
Bâtir la confiance dans l'IA avec la vérification d'identité

L’IA générative a suscité l’intérêt des entreprises du monde entier. En fait, 60% des organisations ayant déclaré avoir adopté l’IA utilisent désormais l’IA générative. Les dirigeants d'aujourd'hui s'efforcent de déterminer comment intégrer les outils d'IA dans leurs piles technologiques pour rester compétitifs et pertinents – et les développeurs d'IA créent plus d'outils que jamais. Mais, compte tenu de l'adoption rapide et de la nature de la technologie, de nombreuses préoccupations en matière de sécurité et d'éthique ne sont pas pleinement prises en compte, alors que les entreprises se précipitent pour intégrer les technologies les plus récentes et les plus performantes. En conséquence, la confiance diminue.
Un récent ont constaté que seulement 48 % des Américains pensent que l’IA est sûre et sécurisée, tandis que 78 % se disent très ou plutôt préoccupés par le fait que l’IA puisse être utilisée à des fins malveillantes. Même s’il a été démontré que l’IA améliore les flux de travail quotidiens, les consommateurs s’inquiètent des mauvais acteurs et de leur capacité à manipuler l’IA. Les capacités de deepfake, par exemple, deviennent de plus en plus une menace à mesure que l’accessibilité de la technologie au grand public augmente.
Disposer d’un outil d’IA ne suffit plus. Pour que l’IA atteigne son véritable potentiel bénéfique, les entreprises doivent l’intégrer dans des solutions qui démontrent une utilisation responsable et viable de la technologie afin d’apporter une plus grande confiance aux consommateurs, en particulier dans le domaine de la cybersécurité où la confiance est essentielle.
Les défis de la cybersécurité de l'IA
La technologie de l'IA générative progresse à un rythme rapide et les développeurs commencent tout juste à comprendre l'importance d'apporter cette technologie à l'entreprise, comme le montre le récent lancement de ChatGPT Enterprise.
La technologie actuelle de l’IA est capable de réaliser des choses dont on parlait seulement dans le domaine de la science-fiction il y a moins de dix ans. Son fonctionnement est impressionnant, mais l’expansion relativement rapide dans laquelle tout cela se produit est encore plus impressionnante. C’est ce qui rend la technologie de l’IA si évolutive et accessible aux entreprises, aux particuliers et, bien sûr, aux fraudeurs. Si les capacités de la technologie de l’IA ont été à l’avant-garde de l’innovation, son utilisation généralisée a également conduit au développement de technologies dangereuses telles que les deepfakes-as-a-service. Le terme « deepfake » est dérivé de la technologie créant ce style particulier de contenu manipulé (ou « faux ») nécessitant l’utilisation de techniques d’apprentissage profond.
Les fraudeurs rechercheront toujours l’argent qui leur procure le meilleur retour sur investissement. Toute entreprise ayant un potentiel de rendement élevé sera donc leur cible. Cela signifie que les technologies financières, les entreprises payant leurs factures, les services gouvernementaux et les détaillants de biens de grande valeur seront toujours en tête de liste.
Nous sommes dans un endroit où la confiance est en jeu et où les consommateurs sont de moins en moins dignes de confiance, ce qui donne aux fraudeurs amateurs plus de possibilités que jamais d'attaquer. Avec la nouvelle accessibilité des outils d'IA et leur coût de plus en plus faible, il est plus facile pour les mauvais acteurs, quel que soit leur niveau de compétence, de manipuler les images et l'identité des autres. Les capacités des deepfakes sont de plus en plus accessibles au grand public grâce aux applications et aux sites Web de deepfake, et la création de deepfakes sophistiqués nécessite très peu de temps et un niveau de compétences relativement faible.
Avec l’utilisation de l’IA, nous avons également constaté une augmentation des rachats de comptes. Les deepfakes générés par l’IA permettent à quiconque de créer facilement des usurpations d’identité ou des identités synthétiques, qu’il s’agisse de célébrités ou même de votre patron.​​
Les applications de langage génératif d’IA et de Large Language Model (LLM) peuvent être utilisées pour créer une fraude plus sophistiquée et évasive, difficile à détecter et à éliminer. Les LLM ont spécifiquement créé une utilisation généralisée d’attaques de phishing capables de parler parfaitement votre langue maternelle. Celles-ci créent également un risque de « fraude amoureuse » à grande échelle, lorsqu’une personne établit une connexion avec quelqu’un via un site Web ou une application de rencontres, mais que la personne avec laquelle elle communique est un escroc utilisant un faux profil. Cela conduit de nombreuses plateformes sociales à envisager de déployer des contrôles de « preuve d’humanité » pour rester viables à grande échelle.
Cependant, les solutions de sécurité actuellement en place, qui utilisent l’analyse des métadonnées, ne peuvent pas arrêter les mauvais acteurs. La détection des Deepfakes est basée sur des classificateurs qui recherchent les différences entre le vrai et le faux. Cependant, cette détection n’est plus assez puissante car ces menaces avancées nécessitent davantage de points de données pour être détectées.
IA et vérification d’identité : travailler ensemble
Les développeurs d’IA doivent se concentrer sur l’utilisation de la technologie pour fournir de meilleures garanties aux mesures de cybersécurité éprouvées. Non seulement cela fournira un cas d’utilisation plus fiable de l’IA, mais cela pourra également permettre une utilisation plus responsable, en encourageant de meilleures pratiques de cybersécurité tout en améliorant les capacités des solutions existantes.
L’un des principaux cas d’utilisation de cette technologie concerne la vérification d’identité. Le paysage des menaces liées à l’IA est en constante évolution et les équipes doivent être équipées d’une technologie capable d’ajuster et de mettre en œuvre rapidement et facilement de nouvelles techniques.
Certaines opportunités liées à l’utilisation de l’IA avec la technologie de vérification d’identité incluent :
- Examen des attributs clés de l'appareil
- Utiliser la contre-IA pour identifier les manipulations : Pour éviter d’être fraudé et protéger les données importantes, la contre-IA peut identifier la manipulation des images entrantes.
- Traiter « l’absence de données » comme un facteur de risque dans certaines circonstances
- Recherche active de modèles sur plusieurs sessions et clients
Ces défenses à plusieurs niveaux fournies par l'IA et la technologie de vérification d'identité enquêtent sur la personne, son document d'identité revendiqué, son réseau et son appareil, minimisant ainsi le risque de manipulation résultant de deepfakes et garantissant que seules des personnes authentiques et de confiance aient accès à vos services.
L’IA et la vérification d’identité doivent continuer à travailler ensemble. Plus les données de formation sont robustes et complètes, plus le modèle s'améliore et comme l'IA est aussi bonne que les données qu'elle alimente, plus nous avons de points de données, plus la vérification de l'identité et l'IA peuvent être précises.
L'avenir de l'IA et de la vérification d'identité
Il est difficile de faire confiance à quoi que ce soit en ligne à moins d'être prouvé par une source fiable. Aujourd’hui, le cœur de la confiance en ligne réside dans l’identité prouvée. L’accessibilité aux LLM et aux outils deepfake présente un risque croissant de fraude en ligne. Les groupes du crime organisé sont bien financés et sont désormais en mesure de tirer parti des dernières technologies à une plus grande échelle.
Les entreprises doivent élargir leur paysage de défense et ne peuvent pas avoir peur d’investir dans la technologie, même si cela ajoute un peu de friction. Il ne peut plus y avoir un seul point de défense : ils doivent examiner tous les points de données associés à la personne qui tente d’accéder aux systèmes, biens ou services et continuer à les vérifier tout au long de leur parcours.
Les Deepfakes continueront d'évoluer et de devenir plus sophistiqués, les chefs d'entreprise doivent examiner en permanence les données des déploiements de solutions pour identifier de nouveaux modèles de fraude et s'efforcer de faire évoluer continuellement leurs stratégies de cybersécurité en parallèle des menaces.