Suivez nous sur

Les filtres de beauté sont un outil potentiel d'attaque Deepfake

Angle d'Anderson

Les filtres de beauté sont un outil potentiel d'attaque Deepfake

mm
Sources : https://www.youtube.com/watch?v=gtCpea_5qxw et https://www.youtube.com/watch?v=3wVpVH0Wa6E

Les filtres de beautĂ© ne se contentent plus de masquer les imperfections : ils permettent aux deepfakes et aux morphings de visage de passer inaperçus aux yeux des systèmes de dĂ©tection. Une nouvelle Ă©tude montre que mĂŞme des effets de lissage subtils perturbent les dĂ©tecteurs d'IA, donnant l'impression que les fausses images sont rĂ©elles et que les vraies semblent fausses. Si cette tendance se poursuit, les filtres de beautĂ© pourraient ĂŞtre soumis Ă  des restrictions dans des contextes Ă  enjeux Ă©levĂ©s, des contrĂ´les aux frontières aux appels Zoom en entreprise.

 

Dans un article universitaire de 2024 collaboration Entre l'Espagne et l'Italie, des chercheurs ont constaté que 90 % des femmes de 18 à 30 ans utilisaient des filtres de beauté avant de publier des images sur les réseaux sociaux. En ce sens, les filtres de beauté sont des méthodes algorithmiques ou assistées par l'IA permettant de modifier l'apparence du visage afin de l'améliorer soi-disant par rapport à la source originale.

Étude de 2024 : exemples de visages fĂ©minins (Ă  gauche) et masculins (Ă  droite) prĂ©sentĂ©s avant et après le filtrage esthĂ©tique. Le filtre modifiait des caractĂ©ristiques telles que le teint, les yeux, le nez, les lèvres, le menton et les pommettes pour amĂ©liorer l'attrait perçu. Source : https://arxiv.org/pdf/2407.11981

Étude de 2024 : exemples de visages fĂ©minins (Ă  gauche) et masculins (Ă  droite) prĂ©sentĂ©s avant et après le filtrage esthĂ©tique. Ce filtre modifie des caractĂ©ristiques telles que le teint, les yeux, le nez, les lèvres, le menton et les pommettes pour amĂ©liorer l'attrait perçu. Source : https://arxiv.org/pdf/2407.11981

De tels filtres sont également largement disponibles en tant que fonctionnalités natives ou complémentaires dans les systèmes vidéo populaires, notamment Snapchat et Zoom, offrant la possibilité de lisser la peau « imparfaite » et même de modifier l'âge du sujet, jusqu'au point où l'identité pourrait être considérée comme substantiellement modifiée :

Cliquez pour jouer : trois femmes désactivent leurs filtres « d'embellissement » vidéo, révélant à quel point leurs physionomies sont altérées par les algorithmes ou l'IA. Source : https://www.youtube.com/watch?v=gtCpea_5qxw

Le phénomène semble avoir atteint son point de saturation dès que la technologie est devenue relativement mature ; un 2020 étude Une étude de la City University de Londres a révélé que 90 % des jeunes utilisateurs de Snapchat aux États-Unis, en France et au Royaume-Uni utilisaient des filtres dans leurs applications, tandis que Meta rapportait que plus de 600 millions de jeunes avaient déjà utilisé des filtres sur Facebook ou Instagram.

Explorant les effets néfastes de ces filtres sur la santé mentale, une étude de Psychology Today Ecojustice Il a été constaté que parmi les personnes étudiées, 90 % des jeunes femmes, âgées en moyenne de 20 ans, utilisaient des filtres ou retouchaient leurs photos. Les filtres les plus populaires étaient ceux utilisés pour uniformiser le teint, donner un aspect bronzé, blanchir les dents et même affiner la silhouette.

Face Off

Les filtres faciaux devraient bénéficier de la norme 2025 révolution dans la synthèse vidéo, et plus généralement de l'intérêt continu pour ce secteur de recherche, la mesure dans laquelle nous pouvons nous « recréer » ou nous réimaginer dans des conversations vidéo en direct va de plus en plus à l'encontre des préoccupations de la communauté de la sécurité concernant les tentatives frauduleuses ou techniques criminelles de deepfake vidéo.

L’un des problèmes est que la gamme de tests « faciles » développé ces dernières années pour révéler un deepfaker vidéo, qui pourrait chercher à frauder de grosses sommes d'argent dans un contexte d'entreprise, deviennent inévitablement moins efficaces à mesure que ces talons d'Achille sont pris en compte dans les données de formation et au moment de l'inférence :

Cliquez pour jouer : il y a trois ou quatre ans, agiter une main devant un visage deepfalked était un test fiable pour les appels vidéo, mais nous pouvons voir que les efforts dédiés de la part de TikTok font des percées profondes dans les « tells » classiques. Sources : Ibid et https://archive.is/mofRV#wavehands

Plus grave encore, l'utilisation généralisée de filtres d'embellissement qui modifient/altèrent le visage brouille les pistes pour une nouvelle génération émergente de détecteurs de deepfakes chargés d'éloigner les imposteurs des conversations vidéo en salle de conférence et des victimes potentielles vulnérables. fraude par « enlèvement » et « imposteur ».

Il est plus facile de rendre un deepfake convaincant, qu'il s'agisse d'une photo ou d'une vidéo, si la résolution de l'image est faible ou l'image est en quelque sorte dégradée, puisque le système de falsification sous-jacent peut cacher ses propres défauts derrière ce qui semble être des problèmes de connectivité ou de plate-forme.

En effet, les filtres d'embellissement les plus populaires suppriment certains des éléments les plus utiles pour identifier les deepfakes vidéo, tels que la texture de la peau et d'autres zones de détails du visage - et il convient de considérer que plus un visage est ancien, plus il est susceptible de contenir de tels détails, et par conséquent, l'utilisation de filtres anti-vieillissement de vanité peut être une tentation particulière dans un tel cas.

Si l'apparence Ă©purĂ©e du style « Android Â» est Ă  la mode, les dĂ©tecteurs de deepfakes pourraient manquer de matĂ©riel pour distinguer les images et vidĂ©os rĂ©elles des fausses. Source : https://www.instagram.com/reel/DMyGerPtTPF/?hl=en

Si un look de style « Android » sans détails est à la mode, les détecteurs de deepfakes peuvent manquer du matériel dont ils ont besoin pour faire la distinction entre les images et les vidéos réelles et fausses. Source : https://www.instagram.com/reel/DMyGerPtTPF/?hl=fr

La Royal Society de fin 2024 papier Ce qui est beau est toujours bon : l'effet de halo d'attractivité à l'ère des filtres de beauté ont confirmé que l’utilisation de filtres augmente universellement l’attractivité générale chez les deux sexes (bien qu’une attractivité accrue tende à diminuer l’estimation générale de l’intelligence chez les femmes filtrées par la beauté).

Il est donc juste de dire qu’il s’agit d’une technologie populaire, qu’elle fonctionne et que ce serait un véritable choc culturel si elle était soudainement soumise à des limitations de sécurité ou interdite dans divers contextes.

Néanmoins, à une époque où les deepfakes vidéo menacent de devenir indiscernables des participants vidéo authentiques, tant en apparence qu'en paroles, il est possible que le « bruit » global des filtres de beauté doive être atténué à l'avenir, pour des raisons de sécurité.

Les criminels lisses

La question a Ă©tĂ© rĂ©cemment Ă©tudiĂ©e dans un nouveau papier de l'UniversitĂ© de Cagliari en Italie, intitulĂ© BeautĂ© trompeuse : Ă©valuation de l'impact des filtres de beautĂ© sur la dĂ©tection des attaques de deepfake et de morphing.

Dans la nouvelle étude, les chercheurs ont appliqué des filtres de beauté aux visages de deux ensembles de données de référence et ont testé plusieurs détecteurs d'attaques de deepfake et de morphing sur les images originales et modifiées.

Dans presque tous les cas, la prĂ©cision de la dĂ©tection a diminuĂ© après l'embellissement ; les baisses les plus spectaculaires se sont produites lorsque les filtres ont attĂ©nuĂ© les rides, Ă©clairci le teint ou subtilement remodelĂ© les traits du visage. Ces modifications ont supprimĂ© ou dĂ©formĂ© les indices mĂŞmes sur lesquels reposent les modèles de dĂ©tection.

Par exemple, le modèle le plus performant sur MorphDB a perdu plus de 9 % de précision après filtrage, et le problème a persisté sur plusieurs architectures de détection, indiquant que les systèmes actuels ne sont pas robustes aux améliorations cosmétiques courantes.

Les auteurs concluent:

« Les filtres [d'embellissement] constituent une menace pour l'intégrité des systèmes d'authentification biométrique et d'analyse médico-légale, ce qui fait de la détection robuste des attaques deepfake et morph dans de telles conditions un défi ouvert critique.

« Les travaux futurs devraient donner la priorité au développement de systèmes de détection de manipulation numérique qui soient robustes à de telles altérations subtiles du monde réel, qu'elles soient malveillantes ou non, afin de garantir une reconnaissance d'identité et une vérification de contenu fiables dans des contextes quotidiens et critiques pour la sécurité. »

Méthode et données

Pour évaluer comment les filtres de beauté affectent le deepfake et détection de morphing, les chercheurs ont appliqué un filtre de lissage progressif et testé les résultats sur deux réseaux neuronaux convolutifs de référence (CNN) bien associé au problème cible : AlexNet et VGG19.

Chacun des deux ensembles de donnĂ©es de rĂ©fĂ©rence testĂ©s contenait des exemples de manipulations faciales appropriĂ©es. Le premier Ă©tait CelebDF, un benchmark vidĂ©o Ă  grande Ă©chelle comprenant 590 clips rĂ©els et 5 639 clips falsifiĂ©s, créés grâce Ă  des techniques avancĂ©es d'Ă©change de visages. La collection offre une grande variĂ©tĂ© de conditions d'Ă©clairage, de poses de tĂŞte et d'expressions naturelles pour 59 individus, ce qui la rend idĂ©ale pour Ă©valuer la rĂ©sistance des dĂ©tecteurs de deepfakes dans des scĂ©narios mĂ©diatiques rĂ©els.

Exemples d'images faciales affectĂ©es, tirĂ©es de CelebDF. Source : https://github.com/yuezunli/celeb-deepfakeforensics

Exemples d'images de visages affectés, de CelebDF. Source : https://github.com/yuezunli/celeb-deepfakeforensics

Le second était AMSL (inscription requise), un ensemble de données d'attaque morphing construit à partir du Face Research Lab London collection, contenant des visages réels et synthétiques. L'ensemble de données inclut des expressions neutres et souriantes de 102 sujets et a été structuré pour refléter les défis réalistes des systèmes d'authentification biométrique utilisés dans des contextes tels que le contrôle aux frontières.

Images du jeu de donnĂ©es source du Face Research Lab London (FRLL), utilisĂ© dans AMSL. Source : https://figshare.com/articles/dataset/Face_Research_Lab_London_Set/5047666?file=8541955

Images de l'ensemble de donnĂ©es source Face Research Lab London (FRLL), utilisĂ© dans AMSL. Source : https://figshare.com/articles/dataset/Face_Research_Lab_London_Set/5047666?file=8541955

Chaque réseau a été formé sur 80 % de l'ensemble de données deepfake ou morphing, les 20 % restants étant utilisés pour validationPour tester la robustesse face à l'embellissement, les chercheurs ont ensuite appliqué un filtre de lissage progressif aux images de test, augmentant le rayon de flou de 3 % à 5 % de la hauteur du visage :

Exemples de visages issus des jeux de données CelebDF (en haut) et AMSL (en bas), présentés avant et après application d'un filtre de beauté lissant. Le rayon du filtre a été ajusté en fonction de la hauteur du visage, avec c = 3 % et c = 5 % produisant des effets progressivement plus marqués.

Exemples de visages issus des jeux de données CelebDF (en haut) et AMSL (en bas), présentés avant et après application d'un filtre de beauté lissant. Le rayon du filtre a été ajusté en fonction de la hauteur du visage, avec c = 3 % et c = 5 % produisant des effets progressivement plus marqués.

En ce qui concerne les métriques, chaque modèle a été évalué à l’aide d’un taux d’erreur égal (EER) sur les échantillons d'essai originaux et améliorés. L'analyse a également rapporté le taux d'erreur de classification de présentation authentique (BPCER), ou taux de faux positifs, et le taux d'erreur de classification de présentation d'attaque (APCER), ou taux de faux négatifs, en utilisant le seuil défini sur les données d'origine.

Visages morphés issus du jeu de données AMSL.

Pour évaluer davantage les performances, l'aire sous la courbe ROC (ASC) et les distributions de scores pour les images réelles et fausses ont été examinées.

Tests

Dans les rĂ©sultats de dĂ©tection des deepfakes, les deux rĂ©seaux ont montrĂ© une augmentation des taux d'erreur Ă©gaux Ă  mesure que l'intensitĂ© de l'embellissement augmentait. L'EER d'AlexNet est passĂ© de 22.3 % sur les images originales Ă  28.1 % au niveau de lissage maximal, tandis que celui de VGG19 est passĂ© de 30.2 % Ă  35.2 %. La baisse de performance a suivi des schĂ©mas diffĂ©rents dans chaque cas :

Résultats de détection de deepfakes sur le jeu de données CelebDF avec AlexNet et VGG19. Les deux modèles ont été testés sur des images originales et embellies, avec des niveaux croissants de lissage facial. Les indicateurs présentés incluent le taux d'erreur égal (EER), le taux d'erreur de classification de présentation authentique (BPCER) et le taux d'erreur de classification de présentation d'attaque (APCER), en utilisant des seuils fixés à partir du jeu de test initial. La précision de détection a diminué avec l'intensité de l'embellissement, bien que le schéma de dégradation ait varié selon les architectures.

Résultats de détection de deepfakes sur le jeu de données CelebDF avec AlexNet et VGG19. Les deux modèles ont été testés sur des images originales et embellies, avec des niveaux croissants de lissage facial. Les indicateurs présentés incluent le taux d'erreur égal (EER), le taux d'erreur de classification de présentation authentique (BPCER) et le taux d'erreur de classification de présentation d'attaque (APCER), en utilisant des seuils fixés à partir du jeu de test initial. La précision de détection a diminué avec l'intensité de l'embellissement, bien que le schéma de dégradation ait varié selon les architectures.

Avec l'augmentation de l'embellissement, AlexNet est devenu plus susceptible de confondre les vrais visages avec les faux, comme en témoigne l'augmentation constante de son taux de faux positifs (BPCER). VGG19, en revanche, a eu du mal à détecter les faux visages, avec un taux de faux négatifs croissant (APCER). Les deux modèles ont réagi différemment aux filtres, ce qui indique que même des architectures bien connues peuvent échouer de différentes manières face à des modifications esthétiques.

Pour mieux comprendre ces rĂ©sultats, les chercheurs ont appliquĂ© le filtre d'embellissement sĂ©parĂ©ment aux images rĂ©elles et truquĂ©es et ont mesurĂ© son impact sur les performances de dĂ©tection. Cette analyse, prĂ©sentĂ©e dans le tableau des rĂ©sultats ci-dessous, clarifie la source de la vulnĂ©rabilitĂ© de chaque modèle :

PrĂ©cision de dĂ©tection pour AlexNet et VGG19 avec embellissement partiel sur le jeu de donnĂ©es CelebDF. Le tableau prĂ©sente trois scĂ©narios : image rĂ©elle embellie vs image truquĂ©e embellie (F-RĂ©el vs F-Faux) ; image rĂ©elle embellie vs image truquĂ©e originale (F-RĂ©el vs O-Faux) ; et image rĂ©elle originale vs image truquĂ©e embellie (O-RĂ©el vs F-Faux). Une diminution de la prĂ©cision indique une baisse des performances du dĂ©tecteur. AlexNet Ă©tait particulièrement affectĂ© par l'embellissement des images rĂ©elles, tandis que VGG19 Ă©tait particulièrement affectĂ© par l'embellissement des images truquĂ©es.

PrĂ©cision de dĂ©tection pour AlexNet et VGG19 avec embellissement partiel sur le jeu de donnĂ©es CelebDF. Le tableau prĂ©sente trois scĂ©narios : image rĂ©elle embellie vs image truquĂ©e embellie (F-RĂ©el vs F-Faux) ; image rĂ©elle embellie vs image truquĂ©e originale (F-RĂ©el vs O-Faux) ; et image rĂ©elle originale vs image truquĂ©e embellie (O-RĂ©el vs F-Faux). Une diminution de la prĂ©cision indique une baisse des performances du dĂ©tecteur. AlexNet Ă©tait particulièrement affectĂ© par l'embellissement des images rĂ©elles, tandis que VGG19 Ă©tait particulièrement affectĂ© par l'embellissement des images truquĂ©es.

Pour AlexNet, les performances de détection ont diminué lorsque les images réelles ont été embellies, mais se sont améliorées lorsque seules les fausses images ont été lissées. Pour VGG19, les performances ont légèrement augmenté avec les images réelles embellies, mais se sont dégradées lorsque les deepfakes ont été filtrés. Dans tous les cas, embellissement plus fort, précision réduite.

Box-plots montrant les distributions des scores de sortie d'AlexNet et de VGG19 sur des échantillons réels et fictifs du jeu de données CelebDF, avec des niveaux d'embellissement croissants. À mesure que le lissage s'intensifie, les distributions des scores des images réelles et fictives deviennent moins séparables, ce qui indique une fiabilité de détection réduite. AlexNet devient moins fiable pour identifier les vrais visages, tandis que VGG19 est plus susceptible de mal classer les faux.

Box-plots montrant les distributions des scores de sortie d'AlexNet et de VGG19 sur des échantillons réels et fictifs du jeu de données CelebDF, avec des niveaux d'embellissement croissants. À mesure que le lissage s'intensifie, les distributions des scores des images réelles et fictives deviennent moins séparables, ce qui indique une fiabilité de détection réduite. AlexNet devient moins fiable pour identifier les vrais visages, tandis que VGG19 est plus susceptible de mal classer les faux.

L'embellissement a permis d'uniformiser les scores de sortie d'AlexNet entre les échantillons réels et fictifs, tandis que VGG19 a montré une plus grande dispersion au sein de chaque classe. Malgré ces effets contrastés sur la variabilité des scores, les deux modèles ont perdu en précision. Pour AlexNet, les scores des visages réels se sont rapprochés de ceux des deepfakes. Pour VGG19, les scores des images réelles et fictives ont commencé à se chevaucher, réduisant la capacité du modèle à les distinguer.

Le papier déclare:

Ces résultats ont des implications importantes et révèlent la nécessité d'envisager l'utilisation potentielle de filtres d'embellissement dans la détection des deepfakes, car ceux-ci peuvent avoir un impact imprévisible sur les performances. En particulier, les différentes architectures réagissent différemment aux manipulations faciales, même si ces manipulations ne visent pas à tromper.

« Par exemple, en fonction du détecteur de deepfakes spécifique, les filtres d'embellissement pourraient modifier considérablement la sortie, rendant les images réelles identifiées comme fausses et, plus critique encore, permettant aux deepfakes de tromper la détection.

« Il est donc nécessaire de se concentrer sur le développement de détecteurs plus robustes à de telles altérations subtiles, pas strictement malveillantes, qui pourraient servir de camouflage à des manipulations malveillantes de deepfake. »

Dans le scénario d'attaque par morphing, une image synthétique a été créée en combinant les traits du visage de deux individus. Cette image a été utilisée pour tromper les systèmes de reconnaissance faciale, permettant ainsi d'authentifier les deux identités sources comme étant la même personne. De telles attaques sont particulièrement pertinentes dans les environnements de sécurité, où les systèmes biométriques sont utilisés. pourrait être induit en erreur d'accepter l'image transformée à des fins d'identification officielle.

Le tableau ci-dessus montre les résultats de détection d'attaque de morphing sur les images AMSL avant et après l'embellissement, les deux réseaux montrant de fortes augmentations d'erreur à mesure que l'intensité du lissage augmente.

Le tableau ci-dessus montre les résultats de détection d'attaque de morphing sur les images AMSL avant et après l'embellissement, les deux réseaux montrant de fortes augmentations d'erreur à mesure que l'intensité du lissage augmente.

Dans le scĂ©nario d'attaque par morphing, les performances ont Ă©tĂ© plus fortement dĂ©gradĂ©es que dans la dĂ©tection de deepfakes. L'EER d'AlexNet est passĂ© de 27.6 % Ă  41.2 %, et celui de VGG19 de 19.0 % Ă  37.3 %, principalement en raison de faux positifs : des visages authentiques classĂ©s Ă  tort comme morphing. Avec un rayon de lissage de 3 %, le taux de faux positifs de VGG19 a atteint 90 %.

Ce schéma s'est maintenu lorsque les filtres ont été appliqués de manière sélective. Le lissage des visages réels a dégradé la détection, tandis que le lissage des visages transformés a amélioré les résultats. À mesure que le lissage s'intensifiait, les deux réseaux ont montré une séparation réduite entre les scores réels et fictifs, le VGG19 devenant particulièrement instable.

Ces résultats, indiquent les auteurs, suggèrent que les filtres de beauté pourraient aider les morphes à échapper à la détection encore plus efficacement que les deepfakes, ce qui soulève de graves préoccupations en matière de sécurité.

Exemples partiels (faute de place) illustrant comment un embellissement minimal (rayon de lissage de 3 %) a modifié les classifications d'AlexNet. À gauche, une image réelle est classée à tort comme une attaque après filtrage, et à droite, une image transformée est classée à tort comme authentique après filtrage.

Exemples partiels (faute de place) illustrant comment un embellissement minimal (rayon de lissage de 3 %) a modifié les classifications d'AlexNet. À gauche, une image réelle est classée à tort comme une attaque après filtrage, et à droite, une image transformée est classée à tort comme authentique après filtrage.

Enfin, les chercheurs ont découvert que même des filtres d’embellissement légers peuvent considérablement dégrader les performances des détecteurs de deepfake et de morphing de pointe.

L'impact variait selon l'architecture : AlexNet affichait un dĂ©clin progressif et VGG19 s'effondrait sous un filtrage minimal. Ces filtres Ă©tant courants et non intrinsèquement malveillants, leur capacitĂ© Ă  dissimuler les attaques reprĂ©sente, selon les auteurs, une menace concrète, notamment pour les systèmes biomĂ©triques. L'article souligne la nĂ©cessitĂ© de modèles de dĂ©tection robustes face Ă  de telles manipulations d'images subtiles.

Conclusion

L'une des raisons pour lesquelles il peut être difficile de former des systèmes de détection de deepfakes capables d'ignorer les filtres d'embellissement est le manque de matériel contrasté ; en fin de compte, la version « embellie » est celle qui est largement diffusée et, contrairement à la vidéo que nous avons intégrée plus tôt à titre d'illustration, il est très rare qu'une image « avant » soit appliquée.

Un autre obstacle est que de nombreux filtres effectuent exactement le type de lissage typique des opérations de compression lors de l'enregistrement d'images ou de la compression de vidéos (une aubaine pour la bande passante des fournisseurs, en plus d'être une cure de jouvence numérique pour ceux qui utilisent le filtre).

Le secteur de la recherche sur la détection des deepfakes est déjà profondément engagé dans la lutte contre les cas de dégradation d’images dans le monde réel en raison de problèmes tels que des caméras de mauvaise qualité, une compression excessive ou une connectivité réseau saccadée – toutes ces conditions étant un avantage direct pour les fraudeurs deepfake qui sont obligés de faire beaucoup plus d’efforts dans un scénario de haute qualité et de haute résolution.

Il semble probable que la question de savoir si les filtres d'embellissement finissent par être menacés en tant que problème de sécurité dépende de la mesure dans laquelle ils constituent un obstacle aux méthodes de filtrage deepfake, ou finissent par constituer une sorte de de facto un pare-feu qui profite davantage aux malfaiteurs qu’à ceux qui les combattent.

 

Première publication le mercredi 24 septembre 2025

Rédacteur en apprentissage automatique, spécialiste du domaine de la synthèse d'images humaines. Ancien responsable du contenu de recherche chez Metaphysic.ai.
Site personnel : martinanderson.ai
Contact : [email protected]
Twitter : @manders_ai