Kết nối với chúng tôi

Công cụ AI loại bỏ lớp trang điểm để ngăn trẻ vị thành niên bỏ qua việc kiểm tra độ tuổi

Góc của Anderson

Công cụ AI loại bỏ lớp trang điểm để ngăn trẻ vị thành niên bỏ qua việc kiểm tra độ tuổi

mm
Flux, SDXL, Bộ lọc thần kinh Photoshop, Firefly, Krita, v.v.

Sự xuất hiện của mỹ phẩm trang điểm trên khuôn mặt đang giúp người dùng vị thành niên, chủ yếu là trẻ em gái, dễ dàng vượt qua quy trình kiểm tra độ tuổi dựa trên ảnh tự chụp trên các nền tảng như ứng dụng hẹn hò và trang web thương mại điện tử. Một công cụ AI mới đã giải quyết lỗ hổng này, sử dụng một mô hình phân biệt được đào tạo để xóa lớp trang điểm mà vẫn giữ được danh tính, khiến trẻ vị thành niên khó có thể qua mặt các hệ thống tự động.

 

Việc sử dụng các dịch vụ xác minh độ tuổi dựa trên ảnh tự sướng của bên thứ ba đang gia tăng, một phần không nhỏ là do động lực chung toàn cầu hướng tới việc xác minh trực tuyến dựa trên độ tuổi.

Ví dụ, trong chế độ thực thi mới mà Đạo luật An toàn Trực tuyến của Vương quốc Anh hiện nay nhiệm vụ, xác minh độ tuổi có thể được thực hiện bởi nhiều bên thứ ba dịch vụ, sử dụng nhiều phương pháp có thể khác nhau, bao gồm xác minh tuổi trực quan, trong đó AI được sử dụng để dự đoán trực quan độ tuổi của người dùng (thường là từ cảnh quay trực tiếp từ camera di động). Các dịch vụ sử dụng phương pháp này bao gồm Ondato, Dấu tin cậyyoti.

Tuy nhiên, ước tính tuổi tác không phải là không thể sai lầm, và quyết tâm truyền thống của thanh thiếu niên để dự đoán các quyền của người trưởng thành có nghĩa là những người trẻ tuổi đã phát triển nhiều phương pháp hiệu quả khác nhau để tham gia các trang web hẹn hò, diễn đàn và các môi trường khác cấm nhóm tuổi của họ.

Một trong những phương pháp này, thường được phụ nữ sử dụng nhất*, là trang điểm khuôn mặt – một chiến thuật được biết đến là lừa đảo hệ thống ước tính tuổi tự động, thường ước tính quá cao tuổi của người trẻ và đánh giá thấp tuổi tác của người lớn tuổi.

Không chỉ các cô gái

Trước khi xuất hiện sự phản đối khi coi trang điểm là 'tập trung vào phụ nữ', chúng ta phải lưu ý rằng sự hiện diện của mỹ phẩm trên khuôn mặt bất kỳ ai là một chỉ số rất không đáng tin cậy của giới tính:

Trong bài báo 'Tác động của mỹ phẩm trang điểm lên các thuật toán ước tính giới tính và độ tuổi tự động', các nhà nghiên cứu Hoa Kỳ phát hiện ra rằng hệ thống xác minh giới tính đã bị ảnh hưởng bởi việc trang điểm hoán đổi giới tính. Nguồn: https://cse.msu.edu/~rossarun/pubs/ChenCosmeticsGenderAge_VISAPP2014.pdf

Trong bài báo 'Tác động của mỹ phẩm trang điểm lên thuật toán ước tính giới tính và độ tuổi tự động', các nhà nghiên cứu Hoa Kỳ phát hiện ra rằng hệ thống xác minh giới tính đã bị lừa bởi việc trang điểm hoán đổi giới tính. Nguồn: https://cse.msu.edu/~rossarun/pubs/ChenCosmeticsGenderAge_VISAPP2014.pdf

Năm 2024, 72% người tiêu dùng nam ở Hoa Kỳ trong độ tuổi từ 18-24 là ước tính để kết hợp trang điểm vào thói quen chải chuốt của họ - mặc dù hầu hết sử dụng các sản phẩm mỹ phẩm để tăng cường vẻ ngoài của làn da khỏe mạnh, thay vì đắm chìm trong loại biểu diễn sự kết hợp mascara/son môi liên quan nhiều hơn với thẩm mỹ thị giác của phụ nữ.

Vì vậy, chúng ta không thể không xử lý tài liệu nghiên cứu trong bài viết này theo hướng của kịch bản phổ biến nhất được khám phá trong các nghiên cứu mới – đó là trẻ vị thành niên nữ sử dụng trang điểm để phá hoại hệ thống xác minh tuổi tự động bằng hình ảnh.

Tẩy trang hiệu quả – Phương pháp AI

Nghiên cứu được đề cập ở trên đến từ ba người đóng góp tại Đại học New York, dưới hình thức giấy mới DiffClean: Tẩy trang bằng phương pháp khuếch tán để ước tính độ tuổi chính xác.

Mục tiêu của dự án là đạt được phương pháp sử dụng AI để xóa lớp trang điểm khỏi hình ảnh (có thể bao gồm cả hình ảnh video) nhằm hiểu rõ hơn về độ tuổi thực sự của người được trang điểm.

Trích từ bài báo mới, một ví dụ về việc tẩy trang. Nguồn: https://arxiv.org/pdf/2507.13292

Từ bài báo mới, một ví dụ về cách tẩy trang có thể thay đổi đáng kể dự đoán về tuổi tác. Nguồn: https://arxiv.org/pdf/2507.13292

Một trong những thách thức của việc phát triển một hệ thống như vậy là tính nhạy cảm tiềm ẩn xung quanh việc thu thập hoặc quản lý hình ảnh các bé gái vị thành niên trang điểm theo phong cách người lớn. Cuối cùng, các nhà nghiên cứu đã sử dụng một hệ thống dựa trên Mạng Đối kháng Sinh sinh của bên thứ ba có tên là Thanh lịch để áp đặt các phong cách trang điểm một cách giả tạo, một kỹ thuật đã được chứng minh là rất hiệu quả:

Hệ thống EleGANt năm 2022 của Đại học Thanh Hoa sử dụng Mạng Đối nghịch Tạo sinh (GAN) để chồng lớp trang điểm một cách chân thực lên ảnh gốc. Nguồn: https://arxiv.org/pdf/2207.09840

Hệ thống EleGANt năm 2022 của Đại học Thanh Hoa sử dụng Mạng đối nghịch tạo sinh (GAN) để chồng mỹ phẩm một cách chân thực lên ảnh gốc. Nguồn: https://arxiv.org/pdf/2207.09840

Với sự trợ giúp của dữ liệu tổng hợp thu được theo cách này, cùng với sự trợ giúp của nhiều dự án và tập dữ liệu phụ trợ khác nhau, các tác giả đã có thể vượt trội hơn các phương pháp tiên tiến trong việc ước tính độ tuổi khi đối mặt với thành phần biểu diễn hoặc 'rõ ràng'.

Bài báo viết:

'DiffClean [xóa] dấu vết trang điểm bằng mô hình khuếch tán hướng dẫn văn bản để chống lại các cuộc tấn công trang điểm. [Nó] cải thiện khả năng ước tính độ tuổi (độ chính xác của trẻ vị thành niên so với người lớn lên 4.8%) và xác minh khuôn mặt (TMR lên 8.9% ở mức FMR = 0.01%) so với các đường cơ sở cạnh tranh trên ảnh trang điểm mô phỏng kỹ thuật số và ảnh thật.'

Chúng ta hãy cùng xem họ đã thực hiện nhiệm vụ này như thế nào.

Phương pháp

Để tránh việc lấy nguồn hình ảnh thật của trẻ vị thành niên trong trang điểm, các tác giả đã sử dụng EleGANt để áp dụng mỹ phẩm tổng hợp vào hình ảnh có nguồn gốc từ mặt UTK tập dữ liệu, tạo ra các cặp trước và sau để đào tạo.

Ví dụ từ bộ dữ liệu UTKFace. Nguồn: https://susanqq.github.io/UTKFace/

Ví dụ từ bộ dữ liệu UTKFace. Nguồn: https://susanqq.github.io/UTKFace/

Sau đó, DiffClean được huấn luyện để đảo ngược quá trình chuyển đổi này. Vì các thuật toán ước tính tuổi thường sai sót nhất khi xử lý các nhóm tuổi trẻ hơn, các nhà nghiên cứu thấy cần phải phát triển một bộ phân loại tuổi đại diện. tinh chỉnh ở độ tuổi mục tiêu (10-19 tuổi). Để đạt được mục đích này, họ đã sử dụng Mạng SSR kiến trúc được đào tạo trên UTKFace, với trọng số Mất mát L1.

Phiên bản rút gọn của OpenAI 2021 mô hình khuếch tán cung cấp nền tảng cho quá trình chuyển đổi, với các tác giả giữ lại kiến trúc cốt lõi, nhưng sửa đổi nó bằng các thành phần bổ sung người đứng đầu chú ý ở nhiều độ phân giải khác nhau, các lớp sâu hơn và BigGAN-các khối kiểu để cải thiện giai đoạn lấy mẫu lên và lấy mẫu xuống.

Kiểm soát hướng được giới thiệu bằng cách sử dụng CLIP nhắc nhở: cụ thể là, khuôn mặt với lớp trang điểmkhuôn mặt không trang điểm, để mô hình học cách di chuyển theo hướng ngữ nghĩa mong muốn, cho phép tẩy trang mà không ảnh hưởng đến chi tiết khuôn mặt, dấu hiệu tuổi tác hoặc danh tính.

Trang điểm tổng hợp được áp dụng bằng EleGANt. Mỗi bộ ba hiển thị ảnh UTKFace gốc (trái), kiểu trang điểm tham chiếu (giữa) và kết quả sau khi chuyển đổi kiểu (phải).

Trang điểm tổng hợp được áp dụng bằng EleGANt. Mỗi bộ ba hiển thị ảnh UTKFace gốc (trái), kiểu trang điểm tham chiếu (giữa) và kết quả sau khi chuyển kiểu (phải). Chuyển kiểu trang điểm này rất phổ biến trong các tài liệu về thị giác máy tính, và tính năng này cũng có sẵn trong các bộ lọc thần kinh của Adobe Photoshop, có thể áp đặt kiểu trang điểm từ ảnh tham chiếu lên ảnh mục tiêu.

Bốn phím chức năng mất mát tẩy trang có hướng dẫn mà không ảnh hưởng đến nhận dạng khuôn mặt hay dấu hiệu tuổi tác. Bên cạnh việc mất mát dựa trên CLIP đã đề cập ở trên, nhận dạng được bảo tồn bằng cách sử dụng một cặp vòng cung tổn thất được rút ra từ cái nhìn sâu sắc thư viện – những tổn thất đo lường sự tương đồng giữa khuôn mặt được tạo ra và cả hình ảnh gốc sạch sẽ và phiên bản 'trang điểm', đảm bảo rằng chủ thể vẫn giữ được sự nhất quán về mặt hình ảnh trước và sau khi tẩy trang.

Thứ ba, sự mất mát về nhận thức Các số liệu về sự tương đồng nhận thức đã học (LPIPS) đã sử dụng khoảng cách L1 để tăng cường tính chân thực ở cấp độ pixel và giữ nguyên diện mạo tổng thể của hình ảnh gốc sau khi lớp trang điểm đã được loại bỏ.

Cuối cùng, độ tuổi được giám sát bằng SSRNet được tinh chỉnh và huấn luyện trên tập dữ liệu UTKFace, với mô hình sử dụng độ mất mát L1 được làm mịn (với hình phạt nặng hơn cho các lỗi trong khoảng tuổi 10–29, nơi phân loại sai phổ biến nhất). Một biến thể của mô hình đã thay thế điều này bằng lời nhắc độ tuổi dựa trên CLIP, nhắc nhở mô hình khớp với ngoại hình của một độ tuổi cụ thể.

Đối với ước tính độ tuổi tại thời điểm suy luận (trái ngược với việc sử dụng SSRNet tại thời điểm đào tạo), năm 2023 MiVOLO khuôn khổ đã được sử dụng.

Dữ liệu và Kiểm tra

Việc tinh chỉnh SSRNet của UTKFace đã sử dụng một bộ đào tạo gồm 15,364 hình ảnh, so với bộ kiểm tra trong số 6,701 hình ảnh. 20,000 hình ảnh gốc đã được lọc để loại bỏ bất kỳ ai trên 70 tuổi, sau đó cũng chia theo tỷ lệ 70:30.

Theo phương pháp trước đó được thiết lập bởi năm 2023 DiffAM dự án, đào tạo sau đó tiến hành theo hai giai đoạn, với phiên đầu tiên sử dụng 300 hình ảnh trang điểm thực tế (lần này chia 200/100 giữa đào tạo và xác thực) từ BeautyGAN Tập dữ liệu MT.

Mô hình sau đó được tinh chỉnh thêm bằng 300 ảnh UTKFace bổ sung, được bổ sung lớp trang điểm tổng hợp thông qua EleGANt. Điều này tạo ra một bộ huấn luyện cuối cùng gồm 600 ví dụ, được ghép nối với năm kiểu tham chiếu từ BeautyGAN. Vì việc tẩy trang liên quan đến việc ánh xạ nhiều kiểu trang điểm vào một khuôn mặt sạch, nên quá trình huấn luyện tập trung vào các kiểu trang điểm rộng. sự khái quát thay vì bao gồm mọi biến thể thẩm mỹ có thể có.

Hiệu suất được đánh giá trên cả hình ảnh tổng hợp và hình ảnh thực tế. Thử nghiệm tổng hợp đã sử dụng 2,556 Flickr-Faces-HQ Hình ảnh bộ dữ liệu (FFHQ), được lấy mẫu đều trên chín nhóm tuổi dưới 70 và được sửa đổi bằng EleGANt.

Tổng quát hóa được đánh giá bằng cách sử dụng 3,000 hình ảnh từ Khuôn mặt đẹp và 355 từ LADN, cả hai đều chứa đồ trang điểm chính hãng.

Ví dụ từ bộ dữ liệu BeautyFace, minh họa cho phân đoạn ngữ nghĩa xác định các vùng khác nhau trên bề mặt khuôn mặt bị ảnh hưởng. Nguồn: https://li-chongyi.github.io/BeautyREC_files/

Ví dụ từ tập dữ liệu BeautyFace, minh họa cho phân đoạn ngữ nghĩa xác định các vùng khác nhau trên bề mặt khuôn mặt bị ảnh hưởng. Nguồn: https://li-chongyi.github.io/BeautyREC_files/

Số liệu và triển khai

Đối với số liệu, các tác giả đã sử dụng Lỗi tuyệt đối trung bình (MAE) giữa giá trị thực tế (hình ảnh thực tế với độ tuổi thực tế đã được xác định) và giá trị độ tuổi dự đoán, trong đó kết quả thấp hơn là tốt hơn; độ chính xác của nhóm tuổi được sử dụng để đánh giá xem độ tuổi dự đoán có nằm trong nhóm chính xác hay không (trong trường hợp này, kết quả thấp hơn là tốt hơn); độ chính xác của trẻ vị thành niên/người lớn được sử dụng để đánh giá khả năng nhận dạng chính xác những người từ 18 tuổi trở lên (trong đó kết quả cao hơn là tốt hơn).

Ngoài ra, mặc dù không tập trung vào chủ đề cụ thể, các tác giả cũng báo cáo các số liệu xác minh danh tính dưới dạng Tỷ lệ khớp đúng (TMR) và Tỷ lệ khớp sai (FMR), cùng với báo cáo thêm về các thông tin liên quan Những đặc thù có tác dụng với người nhận Giá trị (ROC).

SSRNet đã được tinh chỉnh trên hình ảnh 64×64px bằng cách sử dụng kích thước lô của 50 dưới Adam trình tối ưu hóa với một phân rã trọng lượng của 1e−4, cũng như một bộ lập lịch ủ cosinvà tốc độ học tập là 1e−3 trên 200 kỷ nguyên, với dừng sớm.

Ngược lại, mô-đun DiffClean nhận được hình ảnh đầu vào 256×256px và được tinh chỉnh trong năm kỷ nguyên bằng cách sử dụng Adam, với tốc độ học thô hơn là 4e−3. Lấy mẫu được sử dụng 40 Đảo ngược DDIM các bước và 6 bước chuyển tiếp DDIM. Toàn bộ quá trình đào tạo được thực hiện trên một GPU NVIDIA A100 (không rõ có VRAM 40GB hay 80GB).

Các hệ thống đối thủ đã được thử nghiệm CLIP2Protect và DiffAM đã đề cập trước đó. Các tác giả đã sử dụng phong cách trang điểm "lì" trong quy trình làm việc, vì điều này đã được ghi nhận trong CLIP2Protect là đạt được tỷ lệ thành công cao hơn (có lẽ mở ra cơ hội cho những người muốn đánh bại phương pháp này – nhưng đó là vấn đề của một dịp khác).

Để sao chép DiffAM làm cơ sở, mô hình được đào tạo trước từ BeautyGAN đã được tinh chỉnh trên tập dữ liệu MT. Đối với chuyển đổi trang điểm đối nghịch, điểm kiểm tra từ DiffAM được sử dụng với các tham số mặc định cho mô hình mục tiêu, ảnh tham chiếu và danh tính.

Hiệu suất của DiffClean so với các giá trị cơ sở trong các tác vụ ước tính độ tuổi, sử dụng MiVOLO. Các chỉ số được báo cáo bao gồm độ chính xác phân loại trẻ vị thành niên/người lớn, độ chính xác nhóm tuổi và sai số tuyệt đối trung bình (MAE). DiffClean với độ mất tuổi CLIP đạt kết quả tốt nhất trên tất cả các chỉ số.

Hiệu suất của DiffClean so với các giá trị cơ sở trong các tác vụ ước tính độ tuổi, sử dụng MiVOLO. Các chỉ số được báo cáo bao gồm độ chính xác phân loại trẻ vị thành niên/người lớn, độ chính xác nhóm tuổi và sai số tuyệt đối trung bình (MAE). DiffClean với độ mất tuổi CLIP đạt kết quả tốt nhất trên tất cả các chỉ số.

Trong số những kết quả này, các tác giả nêu rõ:

'Phương pháp DIFFCLEAN của chúng tôi vượt trội hơn cả hai phương pháp cơ sở CLIP2Protect và DiffAM, và có thể khôi phục thành công các tín hiệu tuổi bị gián đoạn do sự thay đổi bằng cách giảm MAE (xuống 5.71) và cải thiện độ chính xác dự đoán nhóm tuổi tổng thể (lên 37%).

'Mục tiêu của chúng tôi tập trung vào nhóm tuổi vị thành niên và kết quả cho thấy chúng tôi đạt được tỷ lệ phân loại nhóm tuổi vị thành niên so với nhóm tuổi người lớn cao hơn là 88.6%.'

Kết quả loại bỏ lớp trang điểm từ phương pháp cơ sở và phương pháp đề xuất. Cột ngoài cùng bên trái hiển thị ảnh nguồn, kết quả đầu ra tiếp theo từ CLIP2Protect và DiffAM. Cột thứ ba hiển thị kết quả từ DiffClean thông qua SSRNet và phương pháp giảm tuổi dựa trên CLIP. Các tác giả cho rằng DiffClean loại bỏ lớp trang điểm hiệu quả hơn, tránh được hiện tượng méo hình ảnh thường thấy trong CLIP2Protect và lớp trang điểm còn sót lại mà DiffAM bỏ sót.

Kết quả loại bỏ lớp trang điểm từ phương pháp cơ sở và phương pháp đề xuất. Cột ngoài cùng bên trái hiển thị ảnh nguồn, kết quả đầu ra tiếp theo từ CLIP2Protect và DiffAM. Cột thứ ba hiển thị kết quả từ DiffClean thông qua SSRNet và phương pháp giảm tuổi dựa trên CLIP. Các tác giả cho rằng DiffClean loại bỏ lớp trang điểm hiệu quả hơn, tránh được hiện tượng méo hình ảnh thường thấy trong CLIP2Protect và lớp trang điểm còn sót lại mà DiffAM bỏ sót.

Các tác giả cũng lưu ý rằng trang điểm không có tác động đồng đều đến tuổi tác được cảm nhận, mà có thể làm tăng, giảm hoặc giữ nguyên tuổi tác biểu kiến ​​của khuôn mặt. Do đó, DiffClean không áp dụng "giảm toàn bộ" tuổi dự đoán, mà thay vào đó cố gắng khôi phục các chỉ số tuổi ban đầu bằng cách loại bỏ các dấu vết mỹ phẩm:

Ví dụ về tẩy trang từ bộ dữ liệu CelebA-HQ và CACD. Mỗi cột hiển thị một cặp ảnh trước (trái) và sau (phải) khi tẩy trang. Ở cột đầu tiên, tuổi dự đoán giảm sau khi tẩy trang; ở cột thứ hai, tuổi dự đoán không đổi; và ở cột thứ ba, tuổi dự đoán tăng lên.

Ví dụ về tẩy trang từ bộ dữ liệu CelebA-HQ và CACD. Mỗi cột hiển thị một cặp ảnh trước (trái) và sau (phải) khi tẩy trang. Ở cột đầu tiên, tuổi dự đoán giảm sau khi tẩy trang; ở cột thứ hai, tuổi dự đoán không đổi; và ở cột thứ ba, tuổi dự đoán tăng lên.

Để kiểm tra hiệu quả của DiffClean trên dữ liệu mới, chương trình đã được chạy trên các tập dữ liệu BeautyFace và LADN, bao gồm các ảnh trang điểm thật, nhưng không có ảnh ghép nào của cùng một đối tượng không trang điểm. Các dự đoán về độ tuổi được thực hiện trước và sau khi tẩy trang đã được so sánh, nhằm đánh giá hiệu quả của DiffClean trong việc giảm thiểu sự biến dạng do trang điểm gây ra:

Kết quả tẩy trang trên ảnh thực tế từ bộ dữ liệu LADN (cặp bên trái) và BeautyFace (cặp bên phải). DiffClean giảm độ tuổi dự đoán bằng cách loại bỏ mỹ phẩm, thu hẹp khoảng cách giữa tuổi biểu kiến và tuổi thực tế. Số màu trắng thể hiện độ tuổi ước tính trước và sau khi xử lý.

Kết quả tẩy trang trên ảnh thực tế từ bộ dữ liệu LADN (cặp bên trái) và BeautyFace (cặp bên phải). DiffClean giảm độ tuổi dự đoán bằng cách loại bỏ mỹ phẩm, thu hẹp khoảng cách giữa tuổi biểu kiến và tuổi thực tế. Số màu trắng thể hiện độ tuổi ước tính trước và sau khi xử lý.

Kết quả cho thấy DiffClean liên tục thu hẹp khoảng cách giữa tuổi biểu kiến và tuổi thực tế. Trên cả hai tập dữ liệu, nó giảm trung bình khoảng ba năm lỗi ước tính quá cao và quá thấp, cho thấy hệ thống có khả năng tổng quát hóa tốt với các phong cách thẩm mỹ trong thế giới thực.

Kết luận

Thật thú vị, và có lẽ là điều không thể tránh khỏi, khi việc trang điểm mang tính biểu diễn lại được sử dụng theo cách đối nghịch. Vì các bé gái trưởng thành ở các tốc độ khác nhau, nhưng luôn trưởng thành nhanh hơn Nhìn chung, nhiệm vụ xác định ranh giới giữa vị thế của phụ nữ vị thành niên và phụ nữ trưởng thành có thể là một trong những nhiệm vụ đầy tham vọng nhất mà bối cảnh nghiên cứu đã đặt ra.

Tuy nhiên, thời gian và dữ liệu cuối cùng có thể xác định các dấu hiệu liên quan đến tuổi tác nhất quán có thể được sử dụng để neo giữ các hệ thống xác minh tuổi trực quan.

 

* Vì chủ đề này gợi lên ngôn ngữ mang tính chất chỉ trích, và vì "con gái" có tính loại trừ (trong khi "phụ nữ và trẻ em gái", thuật ngữ hiện được chấp nhận để chỉ những người có giới tính nữ, không phải là mô tả chính xác trong trường hợp này), tôi đã mặc định "phụ nữ" là sự thỏa hiệp tốt nhất mà tôi có thể nghĩ ra - mặc dù nó không bao hàm hết mọi sự tinh tế về mặt nhân khẩu học, và tôi xin lỗi về điều này.

Trong bài viết này, tôi sử dụng từ "biểu diễn" để chỉ loại trang điểm có mục đích để nhìn thấy và nhận biết là trang điểm, chẳng hạn như mascara, bút kẻ mắt, phấn má hồng và kem nền, trái ngược với kem che khuyết điểm và các loại mỹ phẩm "lén lút" khác.

Xuất bản lần đầu vào thứ sáu, ngày 18 tháng 2025 năm XNUMX

Người viết về máy học, chuyên gia trong lĩnh vực tổng hợp hình ảnh con người. Cựu giám đốc nội dung nghiên cứu tại Metaphysic.ai.
Trang cá nhân: martinanderson.ai
Liên Hệ: [email được bảo vệ]
Twitter: @manders_ai