Connect with us

AI ๋„๊ตฌ, ๋ฏธ์ธ์„ฑ ์ œ๊ฑฐ๋กœ ๋ฏธ์„ฑ๋…„์ž ์—ฐ๋ น ํ™•์ธ ์šฐํšŒ ๋ฐฉ์ง€

Anderson์˜ ๊ด€์ 

AI ๋„๊ตฌ, ๋ฏธ์ธ์„ฑ ์ œ๊ฑฐ๋กœ ๋ฏธ์„ฑ๋…„์ž ์—ฐ๋ น ํ™•์ธ ์šฐํšŒ ๋ฐฉ์ง€

mm
Flux, SDXL, Photoshop Neural filters, Firefly, Krita et al.

화장의 외관은 주로 소녀들을 포함한 미성년자 사용자가 셀피 기반의 연령 확인을 플랫폼에서 통과하게 합니다. 새로운 AI 도구는 이 허점을 해결하기 위해 화장을 지우면서 정체성을 유지하는 차별 모델을 사용하여 미성년자가 자동 시스템을 속이기 어렵게 합니다.

 

셀피 기반의 제3자 연령 검증 서비스의 사용은 온라인 연령 기반 검증에 대한 일반적인 글로벌 추진력으로 인해 증가하고 있습니다.

예를 들어, 영국의 온라인 안전법이 이제 시행하는 새로운 집행 체제에서 연령 검증은 다양한 제3자 서비스에서 수행될 수 있으며 다양한 방법을 사용할 수 있습니다. 여기에는 시각적 연령 검증도 포함되며 여기서 AI를 사용하여 사용자의 연령을 시각적으로 예측합니다(일반적으로 라이브 모바일 카메라 영상을 사용하여). 이러한 방식을 사용하는 서비스에는 Ondato, TrustStamp, Yoti가 있습니다.

그러나 연령 추정은 완벽하지 않으며 성인권을 예상하는 청소년의 전통적인 결심은 젊은 사람들이 연령 제한이 있는 데이트 사이트, 포럼 및 기타 환경에 접근하는 다양한 효과적인 방법을 개발하게 합니다.

이러한 방법 중 하나는 주로 여성*에 의해 사용되는 것으로 화장품을 사용하는 것입니다. 이는 자동 연령 추정 시스템을 속이기 위한 것으로 알려져 있으며 일반적으로 젊은 사람들의 연령을 과대평가하고 노인들의 연령을 과소평가합니다.

여성만이 아님

여성 중심의 화장을 고려하는 것에 대한 항의가 발생하기 전에 우리는 화장품의 존재가 누구에게나 매우 신뢰할 수 없는 성별 지표라는 것을 주목해야 합니다.

[캡션 id=”attachment_220523″ align=”alignnone” width=”1200″]๋ฏธ๊ตญ ์—ฐ๊ตฌ์ž๋“ค์€ 'ํ™”์žฅํ’ˆ์ด ์ž๋™ ์„ฑ๋ณ„ ๋ฐ ์—ฐ๋ น ์ถ”์ • ์•Œ๊ณ ๋ฆฌ์ฆ˜์— ๋ฏธ์น˜๋Š” ์˜ํ–ฅ'์ด๋ผ๋Š” ๋…ผ๋ฌธ์—์„œ ์„ฑ๋ณ„ ๊ตํ™˜ ํ™”์žฅ์„ ์‚ฌ์šฉํ•œ ์„ฑ๋ณ„ ๊ฒ€์ฆ ์‹œ์Šคํ…œ์„ ์†์˜€๋‹ค๋Š” ๊ฒƒ์„ ๋ฐœ๊ฒฌํ–ˆ์Šต๋‹ˆ๋‹ค. ์ถœ์ฒ˜: https://cse.msu.edu/~rossarun/pubs/ChenCosmeticsGenderAge_VISAPP2014.pdf 미국 연구자들은 ‘화장품이 자동 성별 및 연령 추정 알고리즘에 미치는 영향’이라는 논문에서 성별 교환 화장을 사용한 성별 검증 시스템을 속였다는 것을 발견했습니다. 출처: https://cse.msu.edu/~rossarun/pubs/ChenCosmeticsGenderAge_VISAPP2014.pdf[/캡션]

2024년에 18세에서 24세 사이의 미국 남성 소비자의 72%는 화장을 포함한 미용 루틴을 사용하는 것으로 추정되었습니다. 그러나 대부분의 남성은 건강한 피부의 외관을 높이기 위해 화장품을 사용하는 반면 여성의 시각적 미학과 관련된 마스카라/립스틱 조합과 같은 수행 화장을 즐기지 않습니다.

따라서 우리는 새로운 연구에서 가장 일반적으로 탐구되는 시나리오를 따라 이 기사에서 연구된 자료를 다루지 않을 수 없습니다. 즉, 미성년자 여성들이 자동 시각적 연령 검증 시스템을 우회하는 데 화장을 사용하는 것입니다.

효과적인 화장 제거 – AI 방식

위에서 언급한 연구는 뉴욕 대학교의 세 명의 기여자로부터 나왔으며, DiffClean: 확산 기반 화장품 제거를 위한 정확한 연령 추정이라는 새로운 논문 형태입니다.

이 프로젝트의 목적은 이미지(영상 포함)에서 화장의 외관을 제거하여 화장 뒤에 있는 사람의 실제 연령에 대한 더 나은 아이디어를 얻는 AI 주도 방법을 달성하는 것입니다.

[캡션 id=”attachment_220524″ align=”alignnone” width=”754″]์ƒˆ๋กœ์šด ๋…ผ๋ฌธ์—์„œ ํ™”์žฅํ’ˆ ์ œ๊ฑฐ์˜ ์˜ˆ์ž…๋‹ˆ๋‹ค. ์ถœ์ฒ˜: https://arxiv.org/pdf/2507.13292 새로운 논문에서 화장품 제거가 연령 예측을 크게 변경하는 예입니다. 출처: https://arxiv.org/pdf/2507.13292[/캡션]

이 시스템을 개발하는 데 있어 하나의 도전은 미성년자 소녀들의 화장품을 가진 이미지나 비디오를 수집하거나 관리할 때 발생할 수 있는 민감성입니다. 결국 연구자들은 EleGANt라는 제3자 생성적 적대 네트워크 기반 시스템을 사용하여 인공적으로 화장 스타일을 적용했습니다. 이 기술은 매우 효과적이었습니다.

[캡션 id=”attachment_220525″ align=”alignnone” width=”869″]์ฒญํ™” ๋Œ€ํ•™์˜ 2022๋…„ EleGANt ์‹œ์Šคํ…œ์€ ์ƒ์„ฑ์  ์ ๋Œ€ ๋„คํŠธ์›Œํฌ(GAN)๋ฅผ ์‚ฌ์šฉํ•˜์—ฌ ์†Œ์Šค ์‚ฌ์ง„์— ํ™”์žฅํ’ˆ์„ ์ง„์ •์„ฑ ์žˆ๊ฒŒ ๊ฒน์นฉ๋‹ˆ๋‹ค. ์ถœ์ฒ˜: https://arxiv.org/pdf/2207.09840 청화 대학의 2022년 EleGANt 시스템은 생성적 적대 네트워크(GAN)를 사용하여 소스 사진에 화장품을 진정성 있게 겹칩니다. 출처: https://arxiv.org/pdf/2207.09840[/캡션]

이러한 합성 데이터와 다양한 보조 프로젝트 및 데이터셋의 도움으로 저자들은 화장품이 있는 경우 연령 추정에서 이전의 최첨단 방법을 초과했습니다.

이 논문은 다음과 같이 말합니다:

‘DiffClean은 텍스트 가이드 확산 모델을 사용하여 화장 공격에 대항하여 화장 흔적을 지웁니다. [그것은] 경쟁적인 기준선에 비해 연령 추정(소아 대 성인 정확도 4.8% 향상)과 얼굴 검증(TMR 8.9% 향상, FMR=0.01%)을 개선합니다.’

让我们来看看他们如何完成这项任务。

방법

실제 미성년자 화장 이미지의 실제 이미지를 얻지 않기 위해 저자들은 EleGANt를 사용하여 UTKFace 데이터셋에서 가져온 이미지에 인공적으로 화장품을 적용했습니다. 이렇게 하면 훈련을 위한 이전 및 이후의 쌍이 생성됩니다.

[캡션 id=”attachment_220526″ align=”alignnone” width=”808″]UTKFace ๋ฐ์ดํ„ฐ์…‹์˜ ์˜ˆ์ž…๋‹ˆ๋‹ค. ์ถœ์ฒ˜: https://susanqq.github.io/UTKFace/ UTKFace 데이터셋의 예입니다. 출처: https://susanqq.github.io/UTKFace/[/캡션]

DiffClean은 이 변환을 역으로 수행하도록 훈련되었습니다. 연령 추정 알고리즘이 가장 많이 오류를 발생시키는 연령 그룹이 젊은 연령 그룹이기 때문에 연구자들은 대상 연령(10-19세)에 맞게 세부적으로 조정된 프록시 연령 분류기를 개발하는 것이 필요했습니다. 이를 위해 UTKFace에서 훈련된 SSRNet 구조와 가중 L1 손실을 사용했습니다.

DiffClean의 변환을 위한 백본은 2021년 OpenAI 확산 모델의 단순화된 버전이 제공했습니다. 저자들은 핵심 구조를 유지했지만 추가적인 주의를 다양한 해상도에서, 더 깊은 계층 및 BigGAN 스타일의 블록을 사용하여 업샘플링 및 다운샘플링 단계를 개선하기 위해 수정했습니다.

방향 제어는 CLIP 프롬프트를 사용하여 도입되었습니다. 구체적으로, 화장이 있는 얼굴화장이 없는 얼굴이므로 모델은 원하는 의미 방향으로 이동하는 것을 배우고 화장을 제거하면서도 얼굴의 세부 사항, 연령 단서 또는 정체성을 손상시키지 않았습니다.

[캡션 id=”attachment_220528″ align=”alignnone” width=”890″]EleGANt๋ฅผ ์‚ฌ์šฉํ•˜์—ฌ ํ•ฉ์„ฑ๋œ ํ™”์žฅํ’ˆ. ๊ฐ ํŠธ๋ฆฌํ”Œ๋ ›์€ ์›๋ณธ UTKFace ์ด๋ฏธ์ง€(์™ผ์ชฝ), ์ฐธ์กฐ ํ™”์žฅ ์Šคํƒ€์ผ(์ค‘๊ฐ„), ์Šคํƒ€์ผ ์ „์†ก ํ›„ ๊ฒฐ๊ณผ(์˜ค๋ฅธ์ชฝ)๋ฅผ ๋ณด์—ฌ์ค๋‹ˆ๋‹ค. EleGANt를 사용하여 합성된 화장품. 각 트리플렛은 원본 UTKFace 이미지(왼쪽), 참조 화장 스타일(중간), 스타일 전송 후 결과(오른쪽)를 보여줍니다. 이러한 종류의 화장 전송은 컴퓨터 비전 문헌에서 흔히 볼 수 있으며 Adobe Photoshop의 신경 필터에서도 유사한 기능을 제공할 수 있습니다.[/캡션]

네 가지 주요 손실 함수가 화장을 제거하면서도 얼굴 정체성이나 연령 단서에 영향을 미치지 않도록 지導했습니다. 위에서 언급한 CLIP 기반 손실 외에도 정체성을 유지하기 위해 가중된 ArcFace 손실 쌍을 사용했습니다. 이 손실은 생성된 얼굴과 원본 깨끗한 이미지 및 ‘화장이 된’ 버전 사이의 유사성을 측정하여 화장이 제거되기 전과 후에 주제가 시각적으로 일관되게 유지되도록 보장했습니다.

세 번째로, 지각적 손실은 LPIPS(Learned Perceptual Similarity Metrics)를 사용하여 픽셀 수준의 현실성을 적용하고 화장이 제거된 후에도 원본 이미지의 전체적인外観을 유지했습니다.

마지막으로, 연령은 UTKFace 데이터셋에서 미세하게 조정된 SSRNet를 사용하여 감독되었습니다. 모델은 원활한 L1 손실(10-29세 연령 범위에서 오류에 대한 벌칙이 더 높음)을 사용했습니다. 모델의 변형은 이를 CLIP 기반 연령 프롬프트로 대체하여 모델이 특정 연령의 외관과 일치하도록 지시했습니다.

추론 시간에 연령 추정을 위해 2023년 MiVOLO 프레임워크를 사용했습니다.

데이터 및 테스트

UTKFace의 SSRNet 미세 조정에는 15,364개의 이미지로 구성된 훈련 세트와 6,701개의 이미지로 구성된 테스트 세트가 사용되었습니다. 원래 20,000개의 이미지는 70세 이상의 사람들을 제거하고 70:30으로 분할되었습니다.

2023년 DiffAM 프로젝트에서 확립된 이전 방법에 따라 훈련은 두 단계로 진행되었습니다. 초기 세션에서는 300개의 실제 세계 화장 이미지(200/100으로 훈련 및 검증을 분할함)를 사용했습니다. 모델은 이후 300개의 추가 UTKFace 이미지로 세부적으로 조정되었습니다. EleGANt를 통해 이러한 이미지는 인공적으로 화장품이 적용되었습니다. 이렇게 하면 600개의 예제로 구성된 최종 훈련 세트가 생성되며 5개의 참조 스타일을 통해 BeautyGAN으로 쌍으로 연결됩니다. 화장품 제거에는 많은 화장 스타일을 하나의 깨끗한 얼굴로 매핑하는 것이 포함되므로 훈련은 모든 가능한 화장 변형을 다루는 것보다 광범위한 일반화에 중점을 두었습니다.

성능은 합성 및 실제 이미지 모두에서 평가되었습니다. 합성 테스트에서는 2,556개의 Flickr-Faces-HQ(FFHQ) 데이터셋 이미지를 사용했으며 70세 미만의 9개 연령 그룹에서 균일하게 샘플링되었습니다. EleGANt를 사용하여 수정되었습니다.

일반화는 3,000개의 BeautyFace 이미지와 355개의 LADN 이미지로 평가되었습니다. 모두 실제 화장품을 포함하고 있습니다.

[캡션 id=”attachment_220529″ align=”alignnone” width=”850″]BeautyFace ๋ฐ์ดํ„ฐ์…‹์˜ ์˜ˆ์ž…๋‹ˆ๋‹ค. ์˜ํ–ฅ์„ ๋ฐ›๋Š” ์–ผ๊ตด ํ‘œ๋ฉด์˜ ๋‹ค์–‘ํ•œ ์˜์—ญ์„ ์ •์˜ํ•˜๋Š” ์˜๋ฏธ์  ๋ถ„ํ• ์„ ๋ณด์—ฌ์ค๋‹ˆ๋‹ค. ์ถœ์ฒ˜: https://li-chongyi.github.io/BeautyREC_files/ BeautyFace 데이터셋의 예입니다. 영향을 받는 얼굴 표면의 다양한 영역을 정의하는 의미적 분할을 보여줍니다. 출처: https://li-chongyi.github.io/BeautyREC_files/[/캡션]

메트릭 및 구현

메트릭으로 저자들은 실제 연령과 예측된 연령 값 사이의 평균 절대 오차(MAE)를 사용했습니다. 여기서 낮은 결과가 더 좋습니다. 또한 연령 그룹 정확도를 사용하여 예측된 연령이 올바른 그룹에 속하는지 평가했습니다. 여기서 낮은 결과가 더 좋습니다. 소아/성인 정확도를 사용하여 18세 이상의 사람들을 올바르게 식별하는지 평가했습니다. 여기서 높은 결과가 더 좋습니다.

추가로, 이 주제와 직접적으로 관련되지 않지만 저자들은 또한 真実 일치 率(TMR) 및 거짓 일치 率(FMR) 형태의 身分 検証 메트릭을 보고하며 관련 수신자 운영 특성(ROC) 값도 추가로 보고합니다.

SSRNet는 64×64px 이미지에서 배치 크기 50으로 Adam 옵티마이저와 가중 감소 1e−4, cosine annealing 스케줄러 및 200 에포크 동안 1e−3의 학습률을 사용하여 미세하게 조정되었습니다. 조기 중지를 사용했습니다.

반면에 DiffClean 모듈은 256×256px 입력 이미지를 받았으며 Adam을 사용하여 5 에포크 동안 미세하게 조정되었습니다. 학습률은 4e−3으로 더 粗略했습니다. 샘플링에는 40개의 DDIM 반전 단계와 6개의 DDIM 전방 단계가 사용되었습니다. 모든 훈련은 단일 NVIDIA A100 GPU(40GB 또는 80GB의 VRAM인지 여부는 지정되지 않았음)에서 수행되었습니다.

경쟁 시스템으로 테스트된 시스템은 CLIP2Protect 및 이전에 언급된 DiffAM이었습니다. 저자들은 ‘마테’ 화장 스타일을 워크플로에서 사용했습니다. 이는 CLIP2Protect에서 더 높은 성공률을 달성하는 것으로 알려져 있습니다.

DiffAM을 기준선으로 복제하기 위해 BeautyGAN의 사전 훈련된 모델이 MT 데이터셋에서 미세하게 조정되었습니다. 적대적 화장 전송을 위해 DiffAM의 체크포인트가 대상 모델, 참조 이미지 및 정체성의 기본 매개변수와 함께 사용되었습니다.

[캡션 id=”attachment_220530″ align=”alignnone” width=”930″]MiVOLO๋ฅผ ์‚ฌ์šฉํ•œ ์—ฐ๋ น ์ถ”์ • ์ž‘์—…์—์„œ DiffClean์˜ ์„ฑ๋Šฅ๊ณผ ๊ธฐ์ค€์„ ์˜ ๋น„๊ต. ๋ณด๊ณ ๋œ ๋ฉ”ํŠธ๋ฆญ์€ ์†Œ์•„/์„ฑ์ธ ๋ถ„๋ฅ˜ ์ •ํ™•๋„, ์—ฐ๋ น ๊ทธ๋ฃน ์ •ํ™•๋„ ๋ฐ ํ‰๊ท  ์ ˆ๋Œ€ ์˜ค์ฐจ(MAE)์ž…๋‹ˆ๋‹ค. CLIP ์—ฐ๋ น ์†์‹ค์„ ์‚ฌ์šฉํ•˜๋Š” DiffClean์ด ๋ชจ๋“  ๋ฉ”ํŠธ๋ฆญ์—์„œ ์ตœ๊ณ ์˜ ๊ฒฐ๊ณผ๋ฅผ ๋‹ฌ์„ฑํ•ฉ๋‹ˆ๋‹ค. MiVOLO를 사용한 연령 추정 작업에서 DiffClean의 성능과 기준선의 비교. 보고된 메트릭은 소아/성인 분류 정확도, 연령 그룹 정확도 및 평균 절대 오차(MAE)입니다. CLIP 연령 손실을 사용하는 DiffClean이 모든 메트릭에서 최고의 결과를 달성합니다.[/캡션]

이러한 결과에 대해 저자들은 다음과 같이 말합니다:

‘[우리의] 방법 DIFFCLEAN은 기준선인 CLIP2Protect와 DiffAM을 능가하며 화장으로 인해 방해받은 연령 단서를 성공적으로 복원할 수 있으며 MAE를 5.71로 낮추고 전체 연령 그룹 예측 정확도를 37%로 개선합니다. ‘

‘우리의 목적은 소아 연령 그룹에 집중되어 있었으며 결과는 우리가 88.6%의 우수한 소아 대 성인 연령 분류를 달성했다는 것을 나타냅니다.’

[캡션 id=”attachment_220531″ align=”alignnone” width=”917″]๊ธฐ์กด ๋ฐฉ๋ฒ•๊ณผ ์ œ์•ˆ๋œ ๋ฐฉ๋ฒ•์˜ ํ™”์žฅํ’ˆ ์ œ๊ฑฐ ๊ฒฐ๊ณผ. ๊ฐ€์žฅ ์™ผ์ชฝ ์—ด์€ ์†Œ์Šค ์ด๋ฏธ์ง€๋ฅผ ๋ณด์—ฌ์ฃผ๊ณ  ๋‹ค์Œ ์—ด์€ CLIP2Protect ๋ฐ DiffAM์˜ ์ถœ๋ ฅ์„ ๋ณด์—ฌ์ค๋‹ˆ๋‹ค. ์„ธ ๋ฒˆ์งธ ์—ด์€ SSRNet ๋ฐ CLIP ๊ธฐ๋ฐ˜ ์—ฐ๋ น ์†์‹ค์„ ํ†ตํ•ด DiffClean์˜ ๊ฒฐ๊ณผ๋ฅผ ๋ณด์—ฌ์ค๋‹ˆ๋‹ค. ์ €์ž๋“ค์€ DiffClean์ด ํ™”์žฅํ’ˆ์„ ๋” ํšจ๊ณผ์ ์œผ๋กœ ์ œ๊ฑฐํ•˜์—ฌ CLIP2Protect์—์„œ ๋ณผ ์ˆ˜ ์žˆ๋Š” ํŠน์ง• ์™œ๊ณก๊ณผ DiffAM์—์„œ ๋†“์นœ ์ž”์—ฌ ํ™”์žฅ์„ ํ”ผํ•œ๋‹ค๊ณ  ์ฃผ์žฅํ•ฉ๋‹ˆ๋‹ค. 기존 방법과 제안된 방법의 화장품 제거 결과. 가장 왼쪽 열은 소스 이미지를 보여주고 다음 열은 CLIP2Protect 및 DiffAM의 출력을 보여줍니다. 세 번째 열은 SSRNet 및 CLIP 기반 연령 손실을 통해 DiffClean의 결과를 보여줍니다. 저자들은 DiffClean이 화장품을 더 효과적으로 제거하여 CLIP2Protect에서 볼 수 있는 특징 왜곡과 DiffAM에서 놓친 잔여 화장을 피한다고 주장합니다.[/캡션]

저자들은 또한 화장이 인식된 연령에 균일한 영향을 미치지 않는다는 것을 주목합니다. 즉, 화장은 얼굴의 외관을 나이가 더 많게 하거나, 나이가 더 적게 보이게 하거나, 또는 변화시키지 않을 수 있습니다. 따라서 DiffClean은 연령을 일괄적으로 줄이지 않고 화장을 제거함으로써 원래의 연령 단서를 회복하려고 시도합니다.

[캡션 id=”attachment_220533″ align=”alignnone” width=”920″]CelebA-HQ ๋ฐ CACD ๋ฐ์ดํ„ฐ์…‹์˜ ํ™”์žฅํ’ˆ ์ œ๊ฑฐ ์˜ˆ์ž…๋‹ˆ๋‹ค. ๊ฐ ์—ด์€ ํ™”์žฅํ’ˆ์„ ์ œ๊ฑฐํ•˜๊ธฐ ์ „๊ณผ ํ›„์˜ ์ด๋ฏธ์ง€ ์Œ์„ ๋ณด์—ฌ์ค๋‹ˆ๋‹ค. ์ฒซ ๋ฒˆ์งธ ์—ด์—์„œ๋Š” ์˜ˆ์ธก๋œ ์—ฐ๋ น์ด ํ™”์žฅํ’ˆ์„ ์ œ๊ฑฐํ•œ ํ›„์— ๊ฐ์†Œํ•˜๊ณ , ๋‘ ๋ฒˆ์งธ ์—ด์—์„œ๋Š” ์—ฐ๋ น์ด ๋ณ€ํ•˜์ง€ ์•Š๊ณ , ์„ธ ๋ฒˆ์งธ ์—ด์—์„œ๋Š” ์—ฐ๋ น์ด ์ฆ๊ฐ€ํ•ฉ๋‹ˆ๋‹ค. CelebA-HQ 및 CACD 데이터셋의 화장품 제거 예입니다. 각 열은 화장품을 제거하기 전과 후의 이미지 쌍을 보여줍니다. 첫 번째 열에서는 예측된 연령이 화장품을 제거한 후에 감소하고, 두 번째 열에서는 연령이 변하지 않고, 세 번째 열에서는 연령이 증가합니다.[/캡션]

DiffClean이 새로운 데이터에서 얼마나 잘 수행되는지 테스트하기 위해 BeautyFace 및 LADN 데이터셋에서 실행되었습니다. 이 데이터셋은 실제 화장품을 포함하지만 화장품이 없는 동일한 주제의 쌍으로 된 이미지는 포함하지 않습니다. 화장품을 제거하기 전과 후에 수행된 연령 예측을 비교하여 DiffClean이 화장품으로 인한 왜곡을 얼마나 잘 줄이는지 평가했습니다.

[캡션 id=”attachment_220534″ align=”alignnone” width=”1200″]LADN(์™ผ์ชฝ ์Œ) ๋ฐ BeautyFace(์˜ค๋ฅธ์ชฝ ์Œ) ๋ฐ์ดํ„ฐ์…‹์˜ ์‹ค์ œ ์„ธ๊ณ„ ์ด๋ฏธ์ง€์—์„œ ํ™”์žฅํ’ˆ ์ œ๊ฑฐ ๊ฒฐ๊ณผ์ž…๋‹ˆ๋‹ค. DiffClean์€ ํ™”์žฅํ’ˆ์„ ์ œ๊ฑฐํ•จ์œผ๋กœ์จ ์˜ˆ์ธก๋œ ์—ฐ๋ น์„ ์ค„์—ฌ ์‹ค์ œ ์—ฐ๋ น๊ณผ ์™ธ๊ด€ ์—ฐ๋ น ๊ฐ„์˜ ๊ฒฉ์ฐจ๋ฅผ ์ค„์ž…๋‹ˆ๋‹ค. ํฐ์ƒ‰ ์ˆซ์ž๋Š” ์ฒ˜๋ฆฌ ์ „ํ›„์˜ ์ถ”์ • ์—ฐ๋ น์„ ๋‚˜ํƒ€๋ƒ…๋‹ˆ๋‹ค. LADN(왼쪽 쌍) 및 BeautyFace(오른쪽 쌍) 데이터셋의 실제 세계 이미지에서 화장품 제거 결과입니다. DiffClean은 화장품을 제거함으로써 예측된 연령을 줄여 실제 연령과 외관 연령 간의 격차를 줄입니다. 흰색 숫자는 처리 전후의 추정 연령을 나타냅니다.[/캡션]

결과는 DiffClean이 실제 화장품 스타일에 일반화되며 평균 약 3년의 오버 추정 및 언더 추정 오류를 줄임으로써 실제 연령과 외관 연령 간의 격차를 줄였다는 것을 보여주었습니다.

결론

수행 화장이 적대적으로 사용되는 것은 흥미롭고 아마도 불가피합니다. 소녀들이 보통 더 빠르게 성숙하지만 집단적으로 더 일관되게 성숙하기 때문에 미성년자와 성인 여성의 구분선을 식별하는 작업은 연구 장면이 아직 설정한 가장 야심찬 작업 중 하나일 수 있습니다.

그러나 시간과 데이터는 궁극적으로 일관된 연령 관련 징후를 앵커로 사용하여 시각적 연령 검증 시스템을 식별하는 데 결정적일 수 있습니다.

 

* 이 주제는 감정적인 언어를 초대하며, ‘소녀들’은 제외적이지만(현재 허용되는 용어인 ‘여성과 소녀들’은 이 경우에 정확한 설명이 아님) 저자는 이 경우에 가장好的妥協안으로 ‘여성’을 기본으로 합니다. 그러나 모든 인구 통계적 미묘함을 포착하지 못합니다. 이를 위해 사과합니다.

이 기사에서 ‘수행’이라는 용어는 화장을 보이게 하고 인식할 수 있도록 의도된 화장을 나타냅니다. 마스카라, 아이라이너, 블러셔 및 파운데이션과 같은 화장품을 말합니다. 이는 은밀한 화장품과 다른 종류의 화장품을 구분하는 것입니다.

처음으로 2025년 7월 18일에 게시되었습니다.

๊ธฐ๊ณ„ ํ•™์Šต ์ž‘๊ฐ€, ์ธ๊ฐ„ ์ด๋ฏธ์ง€ ํ•ฉ์„ฑ ๋„๋ฉ”์ธ ์ „๋ฌธ๊ฐ€. Metaphysic.ai์˜ ์—ฐ๊ตฌ ์ฝ˜ํ…์ธ  ์ฑ…์ž„์ž ์ถœ์‹ .
๊ฐœ์ธ ์‚ฌ์ดํŠธ: martinanderson.ai
์—ฐ๋ฝ์ฒ˜: [email protected]
ํŠธ์œ„ํ„ฐ: @manders_ai