Suivez nous sur

Un outil d'IA supprime le maquillage pour empêcher les mineurs de contourner les contrôles d'âge

Angle d'Anderson

Un outil d'IA supprime le maquillage pour empêcher les mineurs de contourner les contrôles d'âge

mm
Flux, SDXL, filtres neuronaux Photoshop, Firefly, Krita et al.

L'apparition de cosmétiques pour le visage permet aux mineurs, principalement des filles, de contourner les contrôles d'âge par selfie sur des plateformes telles que les applications de rencontre et les sites de e-commerce. Un nouvel outil d'IA comble cette faille en utilisant un modèle discriminant entraîné à effacer le maquillage tout en préservant l'identité, rendant ainsi plus difficile pour les mineurs de tromper les systèmes automatisés.

 

L’utilisation de services tiers de vérification de l’âge basés sur les selfies est en hausse, notamment en raison d’un élan mondial général vers une vérification en ligne basée sur l’âge.

Par exemple, dans le nouveau régime d'application de la loi britannique sur la sécurité en ligne, mandats, la vérification de l'âge peut être effectuée par divers tiers services, en utilisant diverses méthodes possibles, y compris la vérification visuelle de l'âge, où l'IA est utilisée pour prédire visuellement l'âge de l'utilisateur (généralement à partir d'images de caméras mobiles en direct). Les services qui utilisent ce type d'approches incluent Ondato, Timbre de confiance et Yoti.

Cependant, l’estimation de l’âge n’est pas infaillible, et la détermination traditionnelle des adolescents à anticiper les droits de l’âge adulte signifie que les jeunes ont développé une variété de méthodes efficaces d'accéder à des sites de rencontres, des forums et d'autres environnements qui interdisent leur tranche d'âge.

L’une de ces méthodes, la plus couramment utilisée par les femmes*, consiste à se maquiller le visage – une tactique connu pour tromper systèmes automatisés d'estimation de l'âge, qui surestiment généralement l'âge des jeunes et sous-estimer l'âge des personnes âgées.

Pas seulement les filles

Avant que des protestations ne surgissent à l'idée que le maquillage soit considéré comme « axé sur les femmes », il faut noter que la présence de cosmétiques pour le visage sur chacun.e est une indicateur très peu fiable de genre :

Dans l'article « Impact des cosmétiques faciaux sur les algorithmes automatiques d'estimation du genre et de l'âge », des chercheurs américains ont découvert que les systèmes de vérification du genre étaient falsifiés par le maquillage interchangeable. Source : https://cse.msu.edu/~rossarun/pubs/ChenCosmeticsGenderAge_VISAPP2014.pdf

Dans l'article « Impact des cosmétiques pour le visage sur les algorithmes automatiques d'estimation du genre et de l'âge », des chercheurs américains ont découvert que les systèmes de vérification du genre étaient falsifiés par le maquillage intersexué. Source : https://cse.msu.edu/~rossarun/pubs/ChenCosmeticsGenderAge_VISAPP2014.pdf

En 2024, 72 % des consommateurs masculins américains âgés de 18 à 24 ans étaient estimé d'intégrer le maquillage dans leur routine de soins - bien que la plupart utilisent des produits cosmétiques pour améliorer l'apparence d'une peau saine, plutôt que de se livrer à ce genre de performance combinaisons mascara/rouge à lèvres plus associé avec l'esthétique visuelle des femmes.

Nous ne pouvons donc pas nous empêcher de traiter le matériel étudié dans cet article à la manière du scénario le plus courant exploré dans les nouvelles recherches : celui des mineures utilisant du maquillage pour contourner les systèmes automatisés de vérification visuelle de l’âge.

Démaquillage efficace : la méthode de l'IA

La recherche mentionnée ci-dessus provient de trois contributeurs de l'Université de New York, sous la forme du nouveau papier DiffClean : Démaquillage par diffusion pour une estimation précise de l'âge.

L’objectif du projet est de mettre au point une méthode basée sur l’IA permettant de supprimer l’apparence du maquillage des images (y compris potentiellement des images vidéo), afin d’obtenir une meilleure idée de l’âge réel de la personne derrière le maquillage.

Extrait du nouvel article : un exemple de démaquillage. Source : https://arxiv.org/pdf/2507.13292

D'après ce nouvel article, un exemple montre comment le démaquillage peut considérablement modifier une prédiction de l'âge. Source : https://arxiv.org/pdf/2507.13292

L'un des défis du développement d'un tel système réside dans la sensibilité potentielle liée à la collecte ou à la conservation d'images de mineures maquillées pour adultes. Finalement, les chercheurs ont utilisé un système tiers basé sur un réseau antagoniste génératif appelé Élégant d'imposer artificiellement des styles de maquillage, une technique qui s'est avérée très efficace :

Le système EleGANt 2022 de l'Université Tsinghua utilise des réseaux antagonistes génératifs (GAN) pour superposer des éléments cosmétiques de manière authentique sur des photos sources. Source : https://arxiv.org/pdf/2207.09840

Le système EleGANt 2022 de l'Université Tsinghua utilise un réseau antagoniste génératif (GAN) pour superposer des cosmétiques de manière authentique sur des photos sources. Source : https://arxiv.org/pdf/2207.09840

Grâce aux données synthétiques obtenues de cette manière et à l'aide d'une gamme diversifiée de projets et d'ensembles de données auxiliaires, les auteurs ont pu dépasser les méthodes de pointe en matière d'estimation de l'âge lorsqu'ils sont confrontés à une composition performative ou « évidente ».

Le papier déclare:

« DiffClean efface les traces de maquillage grâce à un modèle de diffusion guidé par texte pour se protéger contre les attaques de maquillage. Il améliore l'estimation de l'âge (précision mineure par rapport à adulte de 4.8 %) et la vérification du visage (TMR de 8.9 % à FMR = 0.01 %) par rapport aux références concurrentes sur des images de maquillage simulées numériquement et réelles. »

Voyons comment ils ont procédé pour accomplir cette tâche.

Méthode

Pour éviter de trouver de vraies images de mineurs maquillés, les auteurs ont utilisé EleGANt pour appliquer des cosmétiques synthétiques sur des images provenant du UTKVisage ensemble de données, produisant des paires avant-après pour la formation.

Exemples tirés de l'ensemble de données UTKFace. Source : https://susanqq.github.io/UTKFace/

Exemples tirés de l'ensemble de données UTKFace. Source : https://susanqq.github.io/UTKFace/

DiffClean a ensuite été entraîné à inverser cette transformation. Les algorithmes d'estimation de l'âge étant plus erronés lorsqu'ils traitent des tranches d'âge plus jeunes, les chercheurs ont jugé nécessaire de développer un classificateur d'âge proxy. affiné sur les tranches d'âge cibles (10-19 ans). À cette fin, ils ont utilisé Réseau SSR architecture formée sur UTKFace, avec une pondération Perte L1.

Une version simplifiée de l'OpenAI 2021 modèle de diffusion a fourni l'épine dorsale de la transformation, les auteurs conservant l'architecture de base, mais la modifiant avec des éléments supplémentaires. têtes d'attention à diverses résolutions, couches plus profondes et GrosGAN-blocs de style pour améliorer les étapes de suréchantillonnage et de sous-échantillonnage.

Le contrôle directionnel a été introduit à l'aide de CLIP invites : spécifiquement, visage maquillé et visage sans maquillage, de sorte que le modèle a appris à se déplacer dans la direction sémantique souhaitée, permettant ainsi de retirer le maquillage sans compromettre les détails du visage, les indices d'âge ou l'identité.

Maquillage synthétique appliqué avec EleGANt. Chaque triplet présente l'image UTKFace originale (à gauche), le style de maquillage de référence (au centre) et le résultat après transfert (à droite).

Maquillage synthétique appliqué avec EleGANt. Chaque triplet présente l'image UTKFace originale (à gauche), le style de maquillage de référence (au centre) et le résultat après transfert de style (à droite). Ce type de transfert de maquillage est très répandu dans la littérature sur la vision par ordinateur, et cette fonctionnalité est également disponible dans les filtres neuronaux d'Adobe Photoshop, qui permettent également d'appliquer le maquillage d'une image de référence sur une image cible.

Quatre clés fonctions de perte Démaquillage guidé sans altération de l'identité faciale ni des signes d'âge. Outre la perte de maquillage basée sur le CLIP mentionnée ci-dessus, l'identité a été préservée grâce à une paire de lunettes pondérées. ArcFace pertes tirées de la InsightFace bibliothèque – pertes qui mesuraient la similarité entre le visage généré et l'image propre d'origine et la version « maquillée », garantissant que le sujet restait visuellement cohérent avant et après le démaquillage.

Troisièmement, la perte de perception Mesures de similarité perceptuelle apprises (LPIPS) a utilisé la distance L1 pour renforcer le réalisme au niveau des pixels et conserver l'aspect général de l'image d'origine après l'élimination du maquillage.

Enfin, l'âge a été supervisé à l'aide d'un SSRNet optimisé, entraîné sur l'ensemble de données UTKFace. Le modèle utilisait une perte L1 lissée (avec des pénalités plus lourdes pour les erreurs dans la tranche d'âge de 10 à 29 ans, où les erreurs de classification sont les plus fréquentes). Une variante du modèle a remplacé cette méthode par une invite d'âge basée sur CLIP, invitant le modèle à s'adapter à l'apparence d'un âge spécifique.

Pour l'estimation de l'âge au moment de l'inférence (par opposition à l'utilisation de SSRNet au moment de la formation), le 2023 MiVOLO un cadre a été utilisé.

Données et tests

Le réglage fin de UTKFace par SSRNet a utilisé un ensemble d'entraînement de 15,364 XNUMX images, contre un ensemble de tests sur 6,701 20,000 images. Les 70 70 images originales ont été filtrées pour éliminer les personnes de plus de 30 ans, puis divisées selon un ratio de XNUMX/XNUMX.

Conformément à la méthode antérieure établie par le 2023 DiffAM projet, la formation s'est ensuite déroulée en deux étapes, avec la session initiale utilisant 300 images de maquillage du monde réel (cette fois-ci une répartition 200/100 entre la formation et la validation) de BeautyGAN Ensemble de données MT.

Le modèle a ensuite été affiné à l'aide de 300 images UTKFace supplémentaires, complétées par du maquillage synthétique via EleGANt. Cela a permis de créer un ensemble d'entraînement final de 600 exemples, associés à cinq styles de référence issus de BeautyGAN. Le démaquillage impliquant l'association de plusieurs styles de maquillage à un seul visage propre, l'entraînement s'est concentré sur un large éventail de sujets. généralisation plutôt que de couvrir toutes les variations cosmétiques possibles.

Les performances ont été évaluées sur des images synthétiques et réelles. Les tests synthétiques ont utilisé 2,556 XNUMX Flickr-Faces-HQ Images de l'ensemble de données (FFHQ), échantillonnées uniformément dans neuf groupes d'âge de moins de 70 ans et modifiées avec EleGANt.

La généralisation a été évaluée à l’aide de 3,000 XNUMX images provenant de Beauté du visage et 355 de LADN, tous deux contenant du maquillage authentique.

Exemples tirés de l'ensemble de données BeautyFace, illustrant la segmentation sémantique définissant les différentes zones du visage affectées. Source : https://li-chongyi.github.io/BeautyREC_files/

Exemples tirés de l'ensemble de données BeautyFace, illustrant la segmentation sémantique qui définit diverses zones de la surface du visage affectée. Source : https://li-chongyi.github.io/BeautyREC_files/

Mesures et mise en œuvre

Pour les mesures, les auteurs ont utilisé Erreur absolue moyenne (MAE) entre la vérité terrain (images réelles avec âges factuels établis) et les valeurs d'âge prédites, où les résultats inférieurs sont meilleurs ; précision du groupe d'âge a été utilisé pour évaluer si les âges prédits se retrouvaient dans les bons groupes (auquel cas, les résultats inférieurs sont meilleurs) ; la précision mineure/adulte a été utilisée pour évaluer l'identification correcte des personnes de 18 ans et plus (dans lequel un résultat plus élevé est meilleur).

De plus, bien que cela ne se concentre pas sur le sujet particulier en question, les auteurs rapportent également des mesures de vérification d'identité sous la forme de True Match Rate (TMR) et de False Match Rate (FMR), avec des rapports supplémentaires sur les éléments connexes. Caractéristique de fonctionnement du récepteur Valeurs (ROC).

SSRNet a été affiné sur des images 64×64px à l'aide d'un taille du lot de 50 sous le Adam optimiseur avec un perte de poids de 1e−4, ainsi qu'un planificateur de recuit cosinus, et un taux d'apprentissage de 1e−3 sur 200 époques(la prise en charge arrêt précoce.

En revanche, le module DiffClean a reçu des images d'entrée de 256 × 256 px et a été affiné pendant cinq époques à l'aide d'Adam, à un taux d'apprentissage plus grossier de 4e−3. L'échantillonnage a utilisé 40 Inversion DDIM étapes et 6 étapes DDIM en avant. L'entraînement a été réalisé sur un seul GPU NVIDIA A100 (la quantité de VRAM, 40 ou 80 Go, n'a pas été précisée).

Les systèmes concurrents testés ont été CLIP2Protect et le DiffAM mentionné précédemment. Les auteurs ont utilisé des styles de maquillage « mats » dans le flux de travail, car CLIP2Protect a constaté que cela permettait d'obtenir un taux de réussite plus élevé (offrant vraisemblablement une opportunité à ceux qui cherchent à contrer cette approche – mais ce sera une autre question).

Pour reproduire DiffAM comme référence, le modèle pré-entraîné de BeautyGAN a été affiné sur l'ensemble de données MT. Pour le transfert de maquillage contradictoire, le point de contrôle de DiffAM a été utilisé avec des paramètres par défaut pour le modèle cible, l'image de référence et l'identité.

Performances de DiffClean comparées aux valeurs de référence pour les tâches d'estimation de l'âge, avec MiVOLO. Les indicateurs rapportés sont la précision de la classification Mineur/Adulte, la précision de la tranche d'âge et l'erreur absolue moyenne (EMA). DiffClean avec perte d'âge CLIP obtient les meilleurs résultats pour tous les indicateurs.

Performances de DiffClean comparées aux valeurs de référence pour les tâches d'estimation de l'âge, avec MiVOLO. Les indicateurs rapportés sont la précision de la classification Mineur/Adulte, la précision de la tranche d'âge et l'erreur absolue moyenne (EMA). DiffClean avec perte d'âge CLIP obtient les meilleurs résultats pour tous les indicateurs.

Parmi ces résultats, les auteurs déclarent :

« [Notre] méthode DIFFCLEAN surpasse les deux lignes de base, CLIP2Protect et DiffAM, et peut restaurer avec succès les indices d'âge perturbés par le maquillage en abaissant le MAE (à 5.71) et en améliorant la précision globale de prédiction du groupe d'âge (à 37 %).

« Notre objectif s'est concentré sur les groupes d'âge mineurs, et les résultats indiquent que nous obtenons une classification supérieure de l'âge mineur par rapport à l'âge adulte de 88.6 %. »

Résultats du démaquillage selon les méthodes de référence et proposées. La colonne de gauche présente les images sources, les résultats suivants provenant de CLIP2Protect et DiffAM. La troisième colonne présente les résultats de DiffClean via SSRNet et la perte de maquillage basée sur CLIP. Les auteurs affirment que DiffClean démaquille plus efficacement, évitant la distorsion des traits observée avec CLIP2Protect et les résidus cosmétiques non détectés par DiffAM.

Résultats du démaquillage selon les méthodes de référence et proposées. La colonne de gauche présente les images sources, les résultats suivants provenant de CLIP2Protect et DiffAM. La troisième colonne présente les résultats de DiffClean via SSRNet et la perte de maquillage basée sur CLIP. Les auteurs affirment que DiffClean démaquille plus efficacement, évitant la distorsion des traits observée avec CLIP2Protect et les résidus cosmétiques non détectés par DiffAM.

Les auteurs soulignent également que le maquillage n'a pas d'effet uniforme sur l'âge perçu, mais peut plutôt augmenter, diminuer ou laisser inchangé l'âge apparent d'un visage. Par conséquent, DiffClean n'applique pas de réduction globale de l'âge prédit, mais tente plutôt de retrouver les indicateurs d'âge initiaux en supprimant les traces cosmétiques :

Exemples de démaquillage tirés des bases de données CelebA-HQ et CACD. Chaque colonne présente deux images avant (à gauche) et après (à droite) le démaquillage. Dans la première colonne, l'âge prédit diminue après le démaquillage ; dans la deuxième, il reste inchangé ; et dans la troisième, il augmente.

Exemples de démaquillage tirés des bases de données CelebA-HQ et CACD. Chaque colonne présente deux images avant (à gauche) et après (à droite) le démaquillage. Dans la première colonne, l'âge prédit diminue après le démaquillage ; dans la deuxième, il reste inchangé ; et dans la troisième, il augmente.

Pour tester l'efficacité de DiffClean sur de nouvelles données, nous l'avons appliqué aux jeux de données BeautyFace et LADN, qui contiennent du maquillage authentique, mais aucune image appariée des mêmes sujets sans maquillage. Les prédictions d'âge réalisées avant et après le démaquillage ont été comparées afin d'évaluer l'efficacité de DiffClean à réduire la distorsion induite par le maquillage :

Résultats du démaquillage sur des images réelles issues des jeux de données LADN (paire de gauche) et BeautyFace (paire de droite). DiffClean réduit l'âge prédit en supprimant les cosmétiques, réduisant ainsi l'écart entre l'âge apparent et l'âge réel. Les chiffres blancs indiquent l'âge estimé avant et après traitement.

Résultats du démaquillage sur des images réelles issues des jeux de données LADN (paire de gauche) et BeautyFace (paire de droite). DiffClean réduit l'âge prédit en supprimant les cosmétiques, réduisant ainsi l'écart entre l'âge apparent et l'âge réel. Les chiffres blancs indiquent l'âge estimé avant et après traitement.

Les résultats ont montré que DiffClean réduisait systématiquement l'écart entre l'âge apparent et l'âge réel. Sur les deux ensembles de données, les erreurs de surestimation et de sous-estimation ont été réduites d'environ trois ans en moyenne, ce qui suggère que le système se généralise bien aux styles cosmétiques réels.

Conclusion

Il est intéressant, et peut-être inévitable, que le maquillage performatif soit utilisé de manière conflictuelle. Étant donné que les filles mûrissent à des rythmes différents, mûrissent systématiquement plus vite En tant que groupe, la tâche d’identifier la frontière entre le statut de femme mineure et celui de femme adulte est peut-être l’une des plus ambitieuses que la scène de la recherche se soit fixée jusqu’à présent.

Néanmoins, le temps et les données peuvent éventuellement déterminer des signes cohérents liés à l’âge qui peuvent être utilisés pour ancrer les systèmes de vérification visuelle de l’âge.

 

* Étant donné que ce sujet invite à un langage chargé, et que « filles » est exclusif (alors que « femmes et filles », le terme actuellement acceptable pour les personnes de sexe féminin, n’est pas une description précise dans ce cas), j’ai choisi par défaut « femmes » comme le meilleur compromis que j’ai pu concevoir – bien qu’il ne capture pas toutes les subtilités démographiques, pour lesquelles je m’excuse.

Dans cet article, j'utilise le terme « performatif » pour indiquer le maquillage destiné à être vu et reconnu comme tel, comme le mascara, l'eye-liner, le fard à joues et le fond de teint, par opposition aux crèmes dissimulatrices et autres types d'applications cosmétiques « subreptices ».

Première publication le vendredi 18 juillet 2025

Rédacteur en apprentissage automatique, spécialiste du domaine de la synthèse d'images humaines. Ancien responsable du contenu de recherche chez Metaphysic.ai.
Site personnel : martinanderson.ai
Contact [email protected]
Twitter : @manders_ai