Suivez nous sur

Nos compétences subconscientes en détection profonde des faux pourraient alimenter les futurs systèmes automatisés

Intelligence Artificielle

Nos compétences subconscientes en détection profonde des faux pourraient alimenter les futurs systèmes automatisés

mm

Une nouvelle étude australienne suggère que notre cerveau est capable de reconnaître les deepfakes sophistiqués, même lorsque nous croyons consciemment que les images que nous voyons sont réelles.

Cette découverte suggère également la possibilité d'utiliser les réponses neuronales des individus aux visages truqués (plutôt que leurs opinions exprimées) pour former des systèmes automatisés de détection de ces truquages. Ces systèmes seraient formés aux caractéristiques des images truquées, non pas à partir d'estimations confuses de leur plausibilité, mais à partir de nos mécanismes perceptifs instinctifs de reconnaissance faciale.

« Bien que le cerveau puisse « reconnaĂ®tre Â» la diffĂ©rence entre un visage rĂ©el et un visage rĂ©aliste, les observateurs ne peuvent pas les distinguer consciemment. Nos conclusions sur la dissociation entre la rĂ©ponse cĂ©rĂ©brale et le comportement ont des implications sur la façon dont nous Ă©tudions la perception des faux visages, les questions que nous posons lorsque nous interrogeons sur l'identification des fausses images et les moyens possibles d'Ă©tablir des normes de protection contre l'utilisation abusive de fausses images. Â»

Les résultats sont apparus lors de séries de tests conçus pour évaluer la façon dont les gens réagissent aux fausses images, y compris les images de visages manifestement faux, de voitures, d'espaces intérieurs et de visages inversés (c'est-à-dire à l'envers).

Diverses itĂ©rations et approches pour les expĂ©riences, qui impliquaient deux groupes de sujets de test devant classer une image brièvement montrĂ©e comme «fausse» ou «rĂ©elle». Le premier tour a eu lieu sur Amazon Mechanical Turk, avec 200 volontaires, tandis que le second tour impliquait un plus petit nombre de volontaires rĂ©pondant aux tests tout en Ă©tant connectĂ©s Ă  des machines EEG. Source : https://tijl.github.io/tijl-grootswagers-pdf/Moshel_et_al_-_2022_-_Are_you_for_real_Decoding_realistic_AI-generated_.pdf

DiffĂ©rentes itĂ©rations et approches ont Ă©tĂ© utilisĂ©es pour les expĂ©riences, impliquant deux groupes de sujets devant classer une image brièvement affichĂ©e comme « fausse Â» ou « rĂ©elle Â». La première phase s'est dĂ©roulĂ©e sur Amazon Mechanical Turk, avec 200 volontaires, tandis que la seconde phase impliquait un nombre plus restreint de volontaires rĂ©pondant aux tests tout en Ă©tant branchĂ©s Ă  des appareils EEG. Source : https://tijl.github.io/tijl-grootswagers-pdf/Moshel_et_al_-_2022_-_Are_you_for_real_Decoding_realistic_AI-generated_.pdf

Le papier affirme :

«Nos résultats démontrent qu'avec seulement un bref aperçu, les observateurs peuvent être en mesure de repérer de faux visages. Cependant, ils ont plus de mal à distinguer les vrais visages des faux visages et, dans certains cas, ils pensent que les faux visages sont plus réels que les vrais visages.

«Cependant, en utilisant des méthodes d'EEG résolues dans le temps et de classification des modèles multivariés, nous avons découvert qu'il était possible de décoder à la fois des visages irréalistes et réalistes à partir de visages réels en utilisant l'activité cérébrale.

« Cette dissociation entre le comportement et les réponses neuronales pour les visages réalistes apporte de nouvelles preuves importantes sur la perception des faux visages ainsi que des implications impliquant la classe de plus en plus réaliste des visages générés par GAN. »

L'article suggère que le nouveau travail a « plusieurs implications » dans la cybersécurité appliquée, et que le développement de classificateurs d'apprentissage deepfake devrait peut-être être guidé par la réponse subconsciente, telle que mesurée sur les lectures EEG en réponse à de fausses images, plutôt que par l'estimation consciente par le spectateur de la véracité d'une image.

Les auteurs commentent* :

«Cela rappelle les découvertes selon lesquelles les personnes atteintes de prosopagnosie qui ne peuvent pas classer ou reconnaître comportementalement les visages comme familiers ou inconnus affichent néanmoins des réponses autonomes plus fortes aux visages familiers que des visages inconnus.

De même, cette étude a démontré que, même si nous pouvions décoder avec précision la différence entre visages réels et visages réalistes grâce à l'activité neuronale, cette différence n'était pas perceptible au niveau comportemental. Au contraire, les observateurs ont identifié à tort 69 % des visages réels comme étant des faux.

Quand vous vous déconnectez, votre profil nouveau travail est intitulé Es-tu sérieux? Décodage de visages réalistes générés par l'IA à partir de l'activité neuronale, et provient de quatre chercheurs de l'Université de Sydney, de l'Université Macquarie, de l'Université Western Sydney et de l'Université du Queensland.

Date

Les résultats ont émergé d'un examen plus large de la capacité humaine à distinguer les images manifestement fausses, hyperréalistes (mais toujours fausses) et réelles, réalisées au cours de deux séries de tests.

Les chercheurs ont utilisé des images créées par les réseaux antagonistes génératifs (GAN), a partagé la publication de par Nvidia.

Images de visage humain générées par le GAN mises à disposition par NVIDIA. Source : https://drive.google.com/drive/folders/1EDYEYR3IB71-5BbTARQkhg73leVB9tam

Images de visage humain générées par le GAN mises à disposition par NVIDIA. Source: https://drive.google.com/drive/folders/1EDYEYR3IB71-5BbTARQkhg73leVB9tam

Les donnĂ©es comprenaient 25 visages, voitures et chambres, Ă  des niveaux de rendu allant de « irrĂ©aliste Â» Ă  « rĂ©aliste Â». Pour la comparaison des visages (c'est-Ă -dire pour des images non falsifiĂ©es), les auteurs ont utilisĂ© des sĂ©lections issues des donnĂ©es sources de NVIDIA, Flickr-Faces-HQ (FFHQ). jeu de donnĂ©es. Pour comparer les autres scĂ©narios, ils ont utilisĂ© du matĂ©riel de la LSUN jeu de donnĂ©es.

Les images seraient finalement présentées au sujet de test soit dans le bon sens, soit inversées et à une gamme de fréquences, avec toutes les images redimensionnées à 256 × 256 pixels.

Une fois tout le matériel assemblé, 450 images de stimuli ont été sélectionnées pour les tests.

Exemples représentatifs des données d'essai.

Exemples représentatifs des données d'essai.

Tests

Les tests eux-mêmes ont d'abord été effectués en ligne, via jsPsych sur pavlovia.org, avec 200 participants jugeant divers sous-ensembles du total des données de test recueillies. Les images ont été présentées pendant 200 ms, suivies d'un écran vide qui persistait jusqu'à ce que le spectateur décide si l'image flashée était réelle ou fausse. Chaque image n'a été présentée qu'une seule fois et l'ensemble du test a duré 3 à 5 minutes.

Le deuxième cycle, plus révélateur, a utilisé des sujets en personne équipés de moniteurs EEG et a été présenté sur le Psychopie2 plateforme. Chacune des vingt séquences contenait 40 images, avec 18,000 XNUMX images présentées sur toute la tranche des données de test.

Les données EEG recueillies ont été décodées via MATLAB avec la boîte à outils CoSMoMVPA, à l'aide d'un validation croisée leave-one-out schéma sous analyse discriminante linéaire (LDA).

Le classificateur LDA était le composant capable de faire la distinction entre la réaction cérébrale aux faux stimuli et l'opinion du sujet sur le fait que l'image était fausse.

Résultats

Intéressés de voir si les sujets du test EEG pouvaient faire la distinction entre les faux et les vrais visages, les chercheurs ont agrégé et traité les résultats, constatant que les participants pouvaient facilement distinguer les visages réels des visages irréalistes, mais avaient apparemment du mal à identifier les faux visages réalistes générés par le GAN. Que l'image soit à l'envers ou non semblait faire peu de différence.

Discrimination comportementale des visages réels et synthétiques, au second tour.

Discrimination comportementale des visages réels et synthétiques, au second tour.

Cependant, les données EEG ont raconté une histoire différente.

Le papier déclare:

« Bien que les observateurs aient eu du mal à distinguer les vrais visages des faux et aient eu tendance à surclasser les faux visages, les données EEG contenaient des informations de signal pertinentes pour cette distinction qui différaient de manière significative entre réaliste et irréaliste, et ce signal semblait être limité à une étape de traitement relativement courte. »

Ici, la disparité entre la précision de l'EEG et l'opinion rapportée des sujets (c'est-à-dire si les images du visage étaient fausses ou non) n'est pas identique, les captures EEG se rapprochant plus de la vérité que la perception manifeste des personnes impliquées.

Ici, la disparité entre la précision de l'EEG et l'opinion rapportée des sujets (c'est-à-dire si les images du visage étaient fausses ou non) n'est pas identique, les captures EEG se rapprochant plus de la vérité que la perception manifeste des personnes impliquées.

Les chercheurs concluent que même si les observateurs peuvent avoir du mal à identifier tacitement les faux visages, ces visages ont des « représentations distinctes dans le système visuel humain ».

La disparitĂ© constatĂ©e a amenĂ© les chercheurs Ă  spĂ©culer sur l'applicabilitĂ© potentielle de leurs dĂ©couvertes pour les futurs mĂ©canismes de sĂ©curitĂ© :

« Dans un contexte appliqué tel que la cybersécurité ou les Deepfakes, l'examen de la capacité de détection de visages réalistes pourrait être mieux poursuivi en utilisant des classificateurs d'apprentissage automatique appliqués aux données de neuroimagerie plutôt qu'en ciblant les performances comportementales. »

Ils concluent:

« Comprendre la dissociation entre le cerveau et le comportement pour la détection de faux visages aura des implications pratiques sur la manière dont nous abordons la propagation potentiellement préjudiciable et universelle des informations générées artificiellement. »

 

* Ma conversion des citations en ligne en hyperliens.

Première publication le 11 juillet 2022.

Rédacteur en apprentissage automatique, spécialiste du domaine de la synthèse d'images humaines. Ancien responsable du contenu de recherche chez Metaphysic.ai.
Site personnel : martinanderson.ai
Contact : [email protected]
Twitter : @manders_ai