Andersons Blickwinkel
AI-Tool entfernt Make-up, um Minderjährige am Umgehen von Altersprüfungen zu hindern

Das Aussehen von Gesichtsmakeup lässt minderjährige Nutzer, meist Mädchen, an Selbstausweis-basierten Altersprüfungen auf Plattformen wie Dating-Apps und E-Commerce-Seiten vorbeischlüpfen. Ein neues AI-Tool adressiert diese Lücke, indem es ein diskriminatives Modell verwendet, das trainiert wurde, Make-up zu entfernen, während es die Identität bewahrt, was es Minderjährigen schwerer macht, automatisierte Systeme zu täuschen.
Die Verwendung von Selbstausweis-basierten Altersverifizierungsdiensten von Drittanbietern ist auf dem Vormarsch, nicht zuletzt wegen eines allgemeinen globalen Impulses in Richtung Online-Altersverifizierung.
Zum Beispiel verlangt das neue Durchsetzungsregime, das das Online Safety Act des Vereinigten Königreichs nun vorschreibt, dass Altersverifizierung von einer Vielzahl von Drittanbieter-Diensten durchgeführt werden kann, die verschiedene mögliche Methoden verwenden, einschließlich visueller Altersverifizierung, bei der AI verwendet wird, um das Alter des Nutzers visuell vorherzusagen (in der Regel aus Live-Mobile-Kamera-Footage). Dienste, die Ansätze dieser Art verwenden, umfassen Ondato, TrustStamp und Yoti.
Jedoch ist Altersschätzung nicht unfehlbar, und die traditionelle Bestimmtheit von Teenagern, die Rechte des Erwachsenseins vorwegzunehmen, bedeutet, dass junge Menschen eine Vielzahl von effektiven Methoden entwickelt haben, um Dating-Sites, Foren und andere Umgebungen zu betreten, die ihre Altersgruppe verbieten.
Eine dieser Methoden, die am häufigsten von weiblichen Personen* verwendet wird, ist das Tragen von Gesichtsmakeup – eine Taktik, die bekanntermaßen automatisierte Altersschätzungssysteme täuscht, die im Allgemeinen das Alter von jungen Menschen überschätzen und das Alter von älteren Menschen unterschätzen.
Nicht nur die Mädchen
Bevor Proteste entstehen, weil Make-up als “weiblich-fokussiert” betrachtet wird, müssen wir beachten, dass die Anwesenheit von Gesichtsmakeup auf jedem ein sehr unzuverlässiger Indikator des Geschlechts ist:

In der Studie ‘Impact of Facial Cosmetics on Automatic Gender and Age Estimation Algorithms’ fanden US-Forscher heraus, dass Geschlechtsverifizierungssysteme von geschlechtsumschaltendem Make-up getäuscht wurden. Quelle: https://cse.msu.edu/~rossarun/pubs/ChenCosmeticsGenderAge_VISAPP2014.pdf
Im Jahr 2024 wurden 72% der männlichen Verbraucher in den USA im Alter von 18-24 Jahren geschätzt, Make-up in ihre Pflegereoutine aufzunehmen – obwohl die meisten Kosmetikprodukte verwenden, um das Aussehen von gesunder Haut zu verbessern, anstatt sich an dem Art von aufführungsorientierten† Mascara/Lippenstift-Kombinationen zu beteiligen, die mehr mit weiblichen visuellen Ästhetik assoziiert werden.
Wir können also nicht umhin, das in diesem Artikel behandelte Material entlang der Linien des am häufigsten erforschten Szenarios zu behandeln – nämlich weibliche Minderjährige, die Make-up verwenden, um automatisierte visuelle Altersverifizierungssysteme zu umgehen.
Effektives Make-up-Entfernen – Der AI-Weg
Die oben erwähnte Forschung stammt von drei Mitwirkenden an der New York University, in Form des neuen Papiers DiffClean: Diffusion-basierte Make-up-Entfernung für genaue Altersschätzung.
Das Ziel des Projekts ist es, eine AI-getriebene Methode zur Entfernung des Aussehens von Make-up aus Bildern (potenziell einschließlich Video-Bildern) zu entwickeln, um eine bessere Vorstellung vom wahren Alter der Person hinter dem Make-up zu erhalten.

Aus dem neuen Papier, ein Beispiel dafür, wie Make-up-Entfernung die Altersvorhersage erheblich verändern kann. Quelle: https://arxiv.org/pdf/2507.13292
Eine der Herausforderungen bei der Entwicklung eines solchen Systems ist die potenzielle Sensibilität bei der Erfassung oder Kuration von Bildern von minderjährigen Mädchen mit Erwachsenen-Make-up. Letztendlich verwendeten die Forscher ein Drittanbieter-Generative-Adversarial-Netzwerk-basiertes System namens EleGANt, um künstlich Make-up-Stile aufzudrücken, eine Technik, die sich als sehr effektiv erwies:

Das 2022er EleGANt-System der Tsinghua-Universität verwendet ein Generative Adversarial Network (GAN), um Kosmetika authentisch auf Quellbilder aufzudrücken. Quelle: https://arxiv.org/pdf/2207.09840
Mit Hilfe von synthetischen Daten, die auf diese Weise erhalten wurden, und mit Hilfe einer Vielzahl von Hilfsprojekten und Datenbanken, konnten die Autoren die State-of-the-Art-Methoden bei der Altersschätzung übertreffen, wenn sie mit auffälligem oder “evidentem” Make-up konfrontiert wurden.
Das Papier besagt:
‘DiffClean [entfernt] Make-up-Spuren mithilfe eines textgesteuerten Diffusionsmodells, um gegen Make-up-Angriffe zu verteidigen. [Es] verbessert die Altersschätzung (Minderjährige vs. Erwachsene Genauigkeit um 4,8%) und Gesichtsverifizierung (TMR um 8,9% bei FMR=0,01%) im Vergleich zu konkurrierenden Baselines auf digital simulierten und echten Make-up-Bildern.’
Lassen Sie uns sehen, wie sie diese Aufgabe angegangen sind.
Methode
Um echte Bilder von Minderjährigen mit Make-up zu vermeiden, verwendeten die Autoren EleGANt, um künstliches Make-up auf Bilder aus der UTKFace-Datenbank aufzudrücken, wodurch Vor- und Nachher-Paare für die Ausbildung erstellt wurden.

Beispiele aus der UTKFace-Datenbank. Quelle: https://susanqq.github.io/UTKFace/
DiffClean wurde dann trainiert, um diese Transformation rückgängig zu machen. Da Altersschätzungsalgorithmen am meisten bei der Behandlung jüngerer Altersgruppen fehlschlagen, fanden die Forscher es notwendig, einen Proxy-Altersklassifizierer fein abzustimmen auf die Zielalter (10-19 Jahre). Zu diesem Zweck verwendeten sie die SSRNet-Architektur, die auf UTKFace trainiert wurde, mit einem gewichteten L1-Verlust.
Ein vereinfachtes Modell des 2021 OpenAI Diffusionsmodells diente als Rückgrat für die Transformation, wobei die Autoren die Kernarchitektur beibehielten, aber mit zusätzlichen Aufmerksamkeitsköpfen in verschiedenen Auflösungen, tieferen Schichten und BigGAN-Blöcken modifizierten, um die Upsampling- und Downsampling-Stadien zu verbessern.
Richtungssteuerung wurde mithilfe von CLIP-Prompts eingeführt: speziell Gesicht mit Make-up und Gesicht ohne Make-up, damit das Modell lernte, in die gewünschte semantische Richtung zu gehen, was es ermöglichte, Make-up zu entfernen, ohne Gesichtsdetails, Altershinweise oder Identität zu beeinträchtigen.

Künstliches Make-up, das mithilfe von EleGANt aufgetragen wurde. Jedes Tripel zeigt das ursprüngliche UTKFace-Bild (links), den Referenz-Make-up-Stil (Mitte) und das Ergebnis nach Stilübertragung (rechts). Make-up-Übertragung dieser Art ist in der Computer-Vision-Literatur verbreitet und diese Funktion ist auch in den neuronalen Filtern von Adobe Photoshop verfügbar, die ähnlich Make-up von einem Referenzbild auf ein Zielbild auftragen können.
Vier wichtige Verlustfunktionen leiteten die Make-up-Entfernung ohne Beeinträchtigung der Gesichtsidentität oder Altershinweise. Neben dem oben erwähnten CLIP-basierten Verlust wurde die Identität mithilfe eines gewichteten Paares von ArcFace-Verlusten aus der InsightFace-Bibliothek erhalten – Verluste, die die Ähnlichkeit zwischen dem generierten Gesicht und sowohl dem ursprünglichen sauberen Bild als auch dem “geschminkten” Bild maßen, um sicherzustellen, dass das Thema vor und nach der Make-up-Entfernung visuell konsistent blieb.
Drittens verwendete der perkzeptuelle Verlust Gelernte Perzeptuelle Ähnlichkeitsmetriken (LPIPS) den L1-Abstand, um Pixel-Realismus zu erzwingen und das Gesamtbild nach der Make-up-Entfernung beizubehalten.
Viertens wurde das Alter mithilfe eines fein abgestimmten SSRNet überwacht, das auf der UTKFace-Datenbank trainiert wurde, wobei das Modell einen geglätteten L1-Verlust (mit höheren Strafen für Fehler im Alter von 10-29 Jahren, wo Fehlklassifizierungen am häufigsten sind) verwendete. Eine Variante des Modells ersetzte dies durch einen CLIP-basierten Alters-Prompt, der das Modell aufforderte, dem Aussehen eines bestimmten Alters zu entsprechen.
Für die Altersschätzung zur Inferenzzeit (im Gegensatz zur Verwendung von SSRNet zur Trainingszeit) wurde das 2023er MiVOLO-Framework verwendet.
Daten und Tests
Die SSRNet-Feinabstimmung von UTKFace verwendete ein Trainingsset von 15.364 Bildern, gegen ein Testset von 6.701 Bildern. Die ursprünglichen 20.000 Bilder wurden gefiltert, um alle über 70-Jährigen zu entfernen, und dann ähnlich aufgeteilt.
In Übereinstimmung mit der vorherigen Methode, die von dem 2023er DiffAM-Projekt etabliert wurde, wurde die Ausbildung in zwei Stufen durchgeführt, wobei die erste Sitzung 300 reale Make-up-Bilder (diesmal ein 200/100-Split zwischen Training und Validierung) von BeautyGANs MT-Datensatz verwendete.
Das Modell wurde dann weiter verfeinert, indem 300 zusätzliche UTKFace-Bilder verwendet wurden, die mit künstlichem Make-up von EleGANt versehen wurden. Dies erstellte ein endgültiges Trainingsset von 600 Beispielen, die über fünf Referenzstile von BeautyGAN gepaart wurden. Da die Make-up-Entfernung das Abbilden vieler Make-up-Stile auf ein einziges sauberes Gesicht beinhaltet, konzentrierte sich die Ausbildung auf breite Generalisierung anstelle von jeder möglichen kosmetischen Variation.
Die Leistung wurde auf synthetischen und realen Bildern bewertet. Synthetische Tests verwendeten 2.556 Flickr-Faces-HQ-Datensatz-Bilder, gleichmäßig über neun Altersgruppen unter 70 aufgeteilt, und modifiziert mit EleGANt.
Die Generalisierung wurde mit 3.000 Bildern aus BeautyFace und 355 aus LADN bewertet, die authentisches Make-up enthalten.

Beispiele aus der BeautyFace-Datenbank, die die semantische Segmentierung zeigen, die verschiedene Bereiche der betroffenen Gesichtsoberfläche definiert. Quelle: https://li-chongyi.github.io/BeautyREC_files/
Metriken und Implementierung
Für Metriken verwendeten die Autoren Mittleren absoluten Fehler (MAE) zwischen dem Grundwahrheitswert (reale Bilder mit tatsächlichen Altersangaben) und den vorhergesagten Alterswerten, wobei niedrigere Ergebnisse besser sind; Altersgruppen-Genauigkeit wurde verwendet, um zu bewerten, ob die vorhergesagten Altersgruppen in die richtigen Gruppen fallen (in diesem Fall sind niedrigere Ergebnisse besser); Minderjährige/Erwachsene-Genauigkeit wurde verwendet, um die korrekte Identifizierung von 18-Jährigen und Älteren zu bewerten (in diesem Fall sind höhere Ergebnisse besser).
Zusätzlich berichten die Autoren, obwohl es nicht direkt mit dem Thema zusammenhängt, Identitätsverifizierungs-Metriken in Form von True-Match-Rate (TMR) und False-Match-Rate (FMR), sowie weitere Berichte über verwandte Receiver-Operating-Characteristik (ROC)-Werte.
SSRNet wurde auf 64×64px-Bildern mit einem Batch-Größe von 50 unter dem Adam-Optimizer mit einem Gewichtsverfall von 1e−4, sowie einem cosine-Annealing-Scheduler und einem Lernrate von 1e−3 über 200 Epochen, mit frühem Stopp.
Durch Kontrast erhielt das DiffClean-Modul 256×256px-Eingabe-Bilder und wurde für fünf Epochen mit Adam fein abgestimmt, bei einer groberen Lernrate von 4e−3. Die Stichprobennahme verwendete 40 DDIM-Inversions-Schritte und 6 DDIM-Vorwärts-Schritte. Alle Ausbildungen wurden auf einer einzigen NVIDIA A100-Grafikkarte (ob mit 40GB oder 80GB VRAM, wurde nicht spezifiziert) durchgeführt.
Konkurrierende Systeme, die getestet wurden, waren CLIP2Protect und das oben erwähnte DiffAM. Die Autoren verwendeten ‘Matte’-Make-up-Stile im Workflow, da dies in CLIP2Protect als höhere Erfolgsrate (vermutlich eine Gelegenheit für die, die diesen Ansatz besiegen wollen – aber das ist eine Angelegenheit für einen anderen Zeitpunkt) festgestellt wurde.
Um DiffAM als Basislinie zu replizieren, wurde das vorgebildete Modell von BeautyGAN auf dem MT-Datensatz fein abgestimmt. Für adversarialen Make-up-Transfer wurde der Checkpoint von DiffAM mit Standardparametern für das Zielmodell, Referenzbild und Identität verwendet.

Leistung von DiffClean im Vergleich zu Baselines bei Altersschätzungsaufgaben, die mit MiVOLO verwendet werden. Die berichteten Metriken sind Minderjährige/Erwachsene-Klassifizierungs-Genauigkeit, Altersgruppen-Genauigkeit und mittlerer absoluter Fehler (MAE). DiffClean mit CLIP-Altersverlust erzielt die besten Ergebnisse in allen Metriken.
Von diesen Ergebnissen sagen die Autoren:
‘Unsere Methode DIFFCLEAN übertrifft beide Baselines, CLIP2Protect und DiffAM, und kann erfolgreich die Altershinweise wiederherstellen, die durch Make-up gestört wurden, indem sie den MAE (auf 5,71) senkt und die Gesamterscheinungs-Genauigkeit (auf 37%) verbessert.
‘Unser Ziel konzentrierte sich auf Minderjährige-Altersgruppen, und die Ergebnisse zeigen, dass wir eine überlegene Minderjährige/Erwachsene-Altersklassifizierung von 88,6% erreichen.’

Make-up-Entfernungsergebnisse von Baseline- und vorgeschlagenen Methoden. Die linke Spalte zeigt Quellbilder, die nächste Ausgaben von CLIP2Protect und DiffAM. Die dritte Spalte zeigt Ergebnisse von DiffClean über SSRNet und CLIP-basierten Altersverlust. Die Autoren behaupten, dass DiffClean Make-up effektiver entfernt, ohne die Merkmalsverzerrung zu verursachen, die in CLIP2Protect zu sehen ist, und die verbleibenden Kosmetika, die von DiffAM verpasst werden.
Die Autoren weisen weiter darauf hin, dass Make-up nicht einen einheitlichen Effekt auf das wahrgenommene Alter hat, sondern dass es das scheinbare Alter eines Gesichts erhöhen, verringern oder unverändert lassen kann. Daher versucht DiffClean nicht, eine “blankete Reduktion” des vorhergesagten Alters vorzunehmen, sondern versucht stattdessen, die ursprünglichen Altershinweise wiederherzustellen, indem es kosmetische Spuren entfernt:

Make-up-Entfernungsergebnisse aus den CelebA-HQ- und CACD-Datensätzen. Jede Spalte zeigt ein Paar von Bildern vor (links) und nach (rechts) der Make-up-Entfernung. In der ersten Spalte verringert sich das vorhergesagte Alter nach der Make-up-Entfernung; in der zweiten bleibt es unverändert; und in der dritten erhöht es sich.
Um zu testen, wie gut DiffClean auf neue Daten funktioniert, wurde es auf die BeautyFace- und LADN-Datensätze angewendet, die authentisches Make-up enthalten, aber keine gepaarten Bilder der gleichen Personen ohne Kosmetika. Altersvorhersagen, die vor und nach der Make-up-Entfernung gemacht wurden, wurden verglichen, um zu bewerten, wie effektiv DiffClean die Verzerrung, die durch Make-up eingeführt wurde, reduzierte:

Make-up-Entfernungsergebnisse auf realen Bildern aus den LADN- (links) und BeautyFace- (rechts) Datensätzen. DiffClean reduziert die vorhergesagten Altersgruppen, indem es Kosmetika entfernt, und verringert die Kluft zwischen scheinbarem und tatsächlichem Alter. Weiße Zahlen zeigen die geschätzten Altersgruppen vor und nach der Verarbeitung.
Die Ergebnisse zeigten, dass DiffClean konsistent die Kluft zwischen scheinbarem und tatsächlichem Alter verringerte. Über beide Datensätze hinweg reduzierte es die Überschätzung und Unterschätzung von etwa drei Jahren im Durchschnitt, was darauf hindeutet, dass das System gut auf reale kosmetische Stile generalisiert.
Schlussfolgerung
Es ist interessant und vielleicht unvermeidlich, dass aufführungsorientiertes kosmetisches Make-up auf adversarialer Weise verwendet wird. Angesichts der Tatsache, dass Mädchen in unterschiedlichem Tempo, aber konsistent schneller als Jungen reifen, kann die Aufgabe, den Übergang zwischen minderjährigem und erwachsenem weiblichem Status zu identifizieren, eine der ambitioniertesten sein, die die Forschungsszene sich je gesetzt hat.
Trotzdem kann die Zeit und die Daten letztendlich konsistente altersbezogene Anzeichen bestimmen, die zur Verankerung visueller Altersverifizierungssysteme verwendet werden können.
* Da dieses Thema zu emotionalen Sprachgebrauch einlädt und da ‘Mädchen’ ausschließt (während ‘Frauen und Mädchen’, der derzeit akzeptierte Begriff für weiblich-geschlechtete Personen, in diesem Fall keine genaue Beschreibung ist), habe ich mich für ‘weiblich’ als den besten Kompromiss entschieden, den ich ausarbeiten konnte – obwohl es nicht alle demografischen Feinheiten erfassen kann, wofür ich mich entschuldige.
† In diesem Artikel verwende ich ‘aufführungsorientiert’, um Make-up zu beschreiben, das dazu gedacht ist, gesehen und als Make-up erkannt zu werden, wie Mascara, Eyeliner, Rouge und Foundation, im Gegensatz zu versteckten Cremes und anderen ‘heimlichen’ Arten von kosmetischen Anwendungen.
Erstveröffentlicht am Freitag, den 18. Juli 2025












