Suivez nous sur

VĂ©rification faciale « crĂ©ative Â» avec des rĂ©seaux antagonistes gĂ©nĂ©ratifs

Intelligence Artificielle

VĂ©rification faciale « crĂ©ative Â» avec des rĂ©seaux antagonistes gĂ©nĂ©ratifs

mm

Un nouvel article de l'UniversitĂ© de Stanford a proposĂ© une mĂ©thode naissante pour tromper les systĂšmes d'authentification faciale sur des plates-formes telles que les applications de rencontres, en utilisant un RĂ©seau d'adversaire gĂ©nĂ©ratif (GAN) pour crĂ©er des images de visage alternatives contenant les mĂȘmes informations d'identification essentielles qu'un vrai visage.

La mĂ©thode a contournĂ© avec succĂšs les processus de vĂ©rification faciale sur les applications de rencontres Tinder et Bumble, dans un cas faisant mĂȘme passer un visage (masculin) Ă©changĂ© entre les sexes comme authentique par rapport Ă  l'identitĂ© source (fĂ©minine).

Diverses identités générées qui présentent l'encodage spécifique de l'auteur de l'article (présenté dans la premiÚre image ci-dessus). Source : https://arxiv.org/pdf/2203.15068.pdf

Différentes identités générées qui présentent l'encodage spécifique de l'auteur de l'article (présenté dans la premiÚre image ci-dessus). Source : https://arxiv.org/pdf/2203.15068.pdf

Selon l'auteur, le travail représente la premiÚre tentative de contourner la vérification faciale avec l'utilisation d'images générées qui ont été imprégnées de traits d'identité spécifiques, mais qui tentent de représenter une identité alternative ou substantiellement modifiée.

La technique a été testée sur un systÚme de vérification faciale local personnalisé, puis a bien fonctionné dans des tests de boßte noire contre deux applications de rencontres qui effectuent une vérification faciale sur des images téléchargées par l'utilisateur.

Le nouveau systĂšme d’ papier est intitulĂ© Contournement de la vĂ©rification faciale, et vient de Sanjana Sarda, chercheuse au DĂ©partement de gĂ©nie Ă©lectrique de l'UniversitĂ© de Stanford.

ContrĂŽle de l'espace du visage

Bien que « l'injection » de caractĂ©ristiques spĂ©cifiques Ă  l'ID (c'est-Ă -dire Ă  partir de visages, panneaux routiers, etc.) en images conçues est un Ă©lĂ©ment essentiel de attaques accusatoires, la nouvelle Ă©tude suggĂšre quelque chose de diffĂ©rent : que le secteur de la recherche capacitĂ© croissante Ă  des bactĂ©ries l'espace latent des GAN permettra Ă  terme le dĂ©veloppement d'architectures capables de crĂ©er cohĂ©rent des identitĂ©s alternatives Ă  celle d'un utilisateur – et, de fait, permettre l'extraction de caractĂ©ristiques d'identitĂ© Ă  partir d'images disponibles sur le Web d'un utilisateur sans mĂ©fiance pour les coopter dans une identitĂ© « fantĂŽme » conçue.

La cohĂ©rence et la navigabilitĂ© constituent les principaux dĂ©fis liĂ©s Ă  l'espace latent du GAN depuis l'avĂšnement des rĂ©seaux antagonistes gĂ©nĂ©ratifs. Un GAN ayant assimilĂ© avec succĂšs un ensemble d'images d'entraĂźnement dans son espace latent ne fournit aucune carte simple permettant de « pousser Â» des caractĂ©ristiques d'une classe Ă  une autre.

Alors que des techniques et des outils tels que le mappage d'activation de classe pondĂ©rĂ© par gradient (DiplĂŽmĂ©-CAM) peut aider Ă  Ă©tablir directions latentes entre les classes Ă©tablies, et permettre des transformations (voir image ci-dessous), le dĂ©fi supplĂ©mentaire de enchevĂȘtrement il s'agit gĂ©nĂ©ralement d'un voyage « approximatif », avec un contrĂŽle prĂ©cis limitĂ© de la transition.

Un voyage difficile entre des vecteurs codés dans l'espace latent d'un GAN, poussant une identité masculine dérivée de données dans les codages «féminins» de l'autre cÎté de l'un des nombreux hyperplans linéaires dans l'espace latent complexe et mystérieux. Image dérivée du matériel sur https://www.youtube.com/watch?v=dCKbRCUyop8

Un voyage difficile entre des vecteurs codés dans l'espace latent d'un GAN, poussant une identité masculine dérivée des données dans les codages « féminins » de l'autre cÎté de l'un des nombreux hyperplans linéaires de l'espace latent complexe et mystérieux. Image dérivée du matériel sur https://www.youtube.com/watch?v=dCKbRCUyop8

La capacitĂ© de « geler » et de protĂ©ger les caractĂ©ristiques spĂ©cifiques Ă  l’identitĂ© tout en les dĂ©plaçant dans des codages transformateurs ailleurs dans l’espace latent permet potentiellement de crĂ©er un individu cohĂ©rent (et mĂȘme animable) dont l’identitĂ© est lue par les systĂšmes machines comme celle de quelqu’un d’autre.

Méthode

L'auteur a utilisĂ© deux ensembles de donnĂ©es comme base d'expĂ©riences : un ensemble de donnĂ©es d'utilisateur humain composĂ© de 310 images de son visage couvrant une pĂ©riode de quatre ans, avec un Ă©clairage, un Ăąge et des angles de vue variables), avec des visages recadrĂ©s extraits via Caffe; et les 108,501 XNUMX images racialement Ă©quilibrĂ©es dans le Visage juste ensemble de donnĂ©es, extrait et recadrĂ© de la mĂȘme maniĂšre.

Le modÚle local de vérification faciale a été dérivé d'une implémentation de base de FaceNet et Visage profond, pré-formé sur Création de ConvNet, chaque image étant représentée par un vecteur à 128 dimensions.

Cette approche utilise des images faciales issues d'un sous-ensemble entraĂźnĂ© de FairFace. Pour rĂ©ussir la vĂ©rification faciale, la distance calculĂ©e causĂ©e par la distance d'une image Norme de Frobenius est dĂ©calĂ© par rapport Ă  l'utilisateur cible dans la base de donnĂ©es. Toute image sous le seuil de 0.7 Ă©quivaut Ă  la mĂȘme identitĂ©, sinon la vĂ©rification est considĂ©rĂ©e comme ayant Ă©chouĂ©.

Un modÚle StyleGAN a été affiné à partir des données personnelles de l'auteure, produisant un modÚle capable de générer des variations reconnaissables de son identité, bien qu'aucune de ces images générées ne soit identique aux données d'entraßnement. Ce résultat a été obtenu en Se figer les quatre premiÚres couches du discriminateur, pour éviter le surajustement des données et produire une sortie panachée.

Bien que diverses images aient été obtenues avec le modÚle de base StyleGAN, la faible résolution et la fidélité ont incité une deuxiÚme tentative avec StarGAN V2, qui permet la formation d'images de départ vers un visage cible.

Le modÚle StarGAN V2 a été pré-entraßné pendant environ 10 heures à l'aide de l'ensemble de validation FairFace, sur une taille de lot de quatre et une taille de validation de 8. Dans l'approche la plus réussie, l'ensemble de données personnelles de l'auteur a été utilisé comme source avec les données de formation comme référence.

Expériences de vérification

Un modĂšle de vĂ©rification faciale a Ă©tĂ© construit Ă  partir d'un sous-ensemble de 1000 XNUMX images, dans le but de vĂ©rifier une image arbitraire de l'ensemble. Les images ayant passĂ© avec succĂšs la vĂ©rification ont ensuite Ă©tĂ© testĂ©es par rapport Ă  l'identitĂ© de l'auteur.

A gauche, l'auteur du journal, une vraie photo ; milieu, une image arbitraire qui a Ă©chouĂ© Ă  la vĂ©rification ; Ă  droite, une image sans rapport avec l'ensemble de donnĂ©es qui a passĂ© la vĂ©rification en tant qu'auteur.

À gauche, l'auteur de l'article, une vraie photo ; au milieu, une image arbitraire qui a Ă©chouĂ© Ă  la vĂ©rification ; Ă  droite, une image sans rapport avec l'ensemble de donnĂ©es qui a rĂ©ussi la vĂ©rification en tant qu'auteur.

L'objectif des expérimentations était de créer un écart aussi large que possible entre l'identité visuelle perçue tout en conservant les traits caractéristiques de l'identité cible. Cela a été évalué avec Distance de Mahalanobis, une métrique utilisée dans le traitement d'image pour la recherche de motifs et de modÚles.

Pour le modÚle génératif de base, les résultats à basse résolution obtenus affichent une diversité limitée, malgré le passage de la vérification faciale locale. StarGAN V2 s'est avéré plus capable de créer diverses images capables de s'authentifier.

Toutes les images représentées ont passé la vérification faciale locale. Ci-dessus se trouvent les générations de base StyleGAN basse résolution, ci-dessous, les générations StarGAN V2 de haute résolution et de meilleure qualité.

Toutes les images représentées ont passé la vérification faciale locale. Ci-dessus se trouvent les générations de base StyleGAN basse résolution, ci-dessous, les générations StarGAN V2 de haute résolution et de meilleure qualité.

Les trois derniÚres images illustrées ci-dessus utilisaient l'ensemble de données faciales de l'auteur comme source et référence, tandis que les images précédentes utilisaient les données d'entraßnement comme référence et l'ensemble de données de l'auteur comme source.

Les images gĂ©nĂ©rĂ©es ont Ă©tĂ© testĂ©es avec les systĂšmes de vĂ©rification faciale des applications de rencontre Bumble et Tinder, en prenant comme rĂ©fĂ©rence l'identitĂ© de l'auteur, et ont passĂ© avec succĂšs la vĂ©rification. Une version « masculine » du visage de l'auteur a Ă©galement passĂ© avec succĂšs le processus de vĂ©rification de Bumble, mais l'Ă©clairage a dĂ» ĂȘtre ajustĂ© sur l'image gĂ©nĂ©rĂ©e avant son acceptation. Tinder n'a pas acceptĂ© la version masculine.

Versions « masculines » de l'identité (féminine) de l'auteur.

Versions « masculines » de l'identité (féminine) de l'auteur.

Conclusion

Il s'agit d'expériences fondamentales en matiÚre de projection identitaire, dans le contexte de la manipulation de l'espace latent GAN, qui demeure un défi majeur en synthÚse d'images et en recherche sur les deepfakes. Néanmoins, ces travaux ouvrent la voie à l'intégration cohérente de caractéristiques trÚs spécifiques dans diverses identités et à la création d'identités « alternatives » qui « se lisent » comme quelqu'un d'autre.

 

PremiĂšre publication le 30 mars 2022.