Connect with us

Ângulo de Anderson

Filtros de Beleza São uma Ferramenta Potencial de Ataque de Deepfake

mm
Sources: https://www.youtube.com/watch?v=gtCpea_5qxw and https://www.youtube.com/watch?v=3wVpVH0Wa6E

Os filtros de beleza agora fazem mais do que esconder imperfeições: eles podem ajudar deepfakes e morfismos faciais a escapar da detecção. Um novo estudo mostra que mesmo efeitos de suavização sutis confundem detectores de IA, tornando imagens falsas em reais e reais em falsas. Se a tendência continuar, os filtros de beleza podem enfrentar restrições em contextos de alto risco, desde controle de fronteira até reuniões de Zoom corporativas.

 

Em uma colaboração acadêmica de 2024 entre a Espanha e a Itália, os pesquisadores relataram que 90% das mulheres com idades entre 18 e 30 anos usavam filtros de beleza antes de postar imagens em redes sociais. Nesse sentido, os filtros de beleza são métodos algorítmicos ou auxiliados por IA para alterar a aparência facial de modo a ser supostamente aprimorada em relação à fonte original:

Do estudo de 2024: exemplo de faces femininas (à esquerda) e masculinas (à direita) mostradas antes e após a aplicação de filtros de beleza. O filtro alterou recursos como tom de pele, olhos, nariz, lábios, queixo e maçãs do rosto para aumentar a atratividade percebida. Fonte: https://arxiv.org/pdf/2407.11981

Do estudo de 2024: exemplo de faces femininas (à esquerda) e masculinas (à direita) mostradas antes e após a aplicação de filtros de beleza. O filtro alterou recursos como tom de pele, olhos, nariz, lábios, queixo e maçãs do rosto para aumentar a atratividade percebida. Fonte: https://arxiv.org/pdf/2407.11981

Tais filtros também estão amplamente disponíveis como funcionalidade nativa ou de adição em sistemas de vídeo populares, incluindo Snapchat e Zoom, oferecendo a capacidade de suavizar a pele “imperfeita” e até alterar a idade do sujeito, até o ponto em que a identidade poderia ser substancialmente alterada:

Clique para reproduzir: três mulheres desligam os filtros de “beleza” de vídeo, revelando a extensão com que suas fisionomias são alteradas pelos algoritmos ou IA. Fonte: https://www.youtube.com/watch?v=gtCpea_5qxw

O fenômeno pareceu atingir o ponto de saturação assim que a tecnologia estava relativamente madura; um estudo de 2020 da City University de Londres revelou que 90% dos jovens usuários do Snapchat nos Estados Unidos, França e Reino Unido usavam filtros em seus aplicativos, enquanto a Meta relatou que mais de 600 milhões de jovens haviam usado filtros no Facebook ou Instagram.

Explorando os efeitos adversos desses filtros na saúde mental, um relatório da Psychology Today afirmou que, entre os estudados, 90% das jovens mulheres, com média de idade de 20 anos, usavam filtros ou editavam suas fotos de alguma forma. Os filtros mais populares eram aqueles usados para uniformizar tons de pele; dar uma aparência morena; clarear dentes; e até reduzir o tamanho do corpo.

Confronto

À medida que os filtros faciais estão prestes a se beneficiar da revolução de 2025 em síntese de vídeo e, de forma mais geral, do interesse contínuo nesse setor de pesquisa, a extensão com que podemos “recriar” ou reimaginar a nós mesmos em chamadas de vídeo ao vivo está cada vez mais se chocando com a preocupação da comunidade de segurança sobre técnicas de vídeo deepfake fraudulentas ou criminosas.

Um problema é que a gama de testes “fáceis” desenvolvidos nos últimos anos para revelar um vídeo deepfake, que pode estar tentando defraudar grandes quantias de dinheiro em um contexto corporativo, está inevitavelmente se tornando menos eficaz à medida que esses calcanhares de Aquiles são contabilizados nos dados de treinamento e no tempo de inferência:

Clique para reproduzir: há três ou quatro anos, acenar com a mão em frente a uma face deepfake era um teste confiável para chamadas de vídeo, mas podemos ver que esforços dedicados de empresas como o TikTok estão fazendo incursões profundas nos clássicos “sinais”. Fontes: Ibid e https://archive.is/mofRV#wavehands

Mais criticamente, o uso generalizado de filtros de beleza que alteram ou mudam o rosto turva as águas para uma nova geração de detectores de deepfakes encarregados de manter impostores fora de chamadas de vídeo de salas de reunião e longe de potenciais vítimas de fraudes de “sequestro” e “impostor”.

É mais fácil criar um deepfake convincente, seja foto ou vídeo, se a resolução da imagem for baixa ou a imagem estiver degradada, pois o sistema de falsificação subjacente pode esconder suas próprias deficiências atrás do que parece ser um problema de conectividade ou plataforma.

Na prática, os filtros de beleza mais populares removem alguns dos materiais mais úteis para identificar vídeos deepfakes, como textura de pele e outras áreas de detalhe facial – e vale a pena considerar que, quanto mais velha for uma face, mais detalhes ela provavelmente contém, e, portanto, o uso de filtros de vaidade de rejuvenescimento pode ser uma tentação particular nesse caso.

Se um visual “android” sem detalhes for a moda, os detectores de deepfakes podem não ter o material necessário para distinguir entre imagens e personagens de vídeo reais e falsos. Fonte: https://www.instagram.com/reel/DMyGerPtTPF/?hl=en

O papel de 2024 da Royal Society intitulado O que é belo ainda é bom: o efeito de halo de atratividade na era dos filtros de beleza confirmou que o uso de filtros universalmente aumenta a atratividade geral em ambos os sexos (embora a atratividade aumentada tenda a diminuir a estimativa geral de inteligência em mulheres com filtros de beleza).

Portanto, é justo dizer que essa é uma tecnologia popular; que ela funciona; e que seria um choque cultural se ela de repente se tornasse sujeita a limitações de segurança ou fosse proibida em contextos diversos.

No entanto, em um período em que os vídeos deepfakes ameaçam se tornar indistinguíveis de participantes de vídeo genuínos, tanto em aparência quanto em fala, é possível que o “ruído” global dos filtros de beleza possa precisar ser mitigado no futuro, por razões de segurança.

Criminosos Suaves

A questão foi mais recentemente investigada em um novo artigo da Universidade de Cagliari, na Itália, intitulado Beleza Enganosa: Avaliando o Impacto dos Filtros de Beleza na Detecção de Ataques de Deepfake e Morfismo.

No novo estudo, os pesquisadores aplicaram filtros de beleza a faces de dois conjuntos de dados de referência e testaram vários detectores de ataques de deepfake e morfismo em imagens originais e alteradas.

Em quase todos os casos, a precisão da detecção caiu após a beleza; as quedas mais dramáticas ocorreram quando os filtros suavizaram rugas, clarearam o tom de pele ou sutilmente redefiniram recursos faciais. Essas alterações removeram ou distorceram as próprias dicas em que os modelos de detecção dependem.

Por exemplo, o modelo de melhor desempenho no MorphDB perdeu mais de 9% de precisão após a filtragem, e o problema persistiu em várias arquiteturas de detecção, indicando que os sistemas atuais não são robustos em relação a melhorias cosméticas comuns.

Escritor sobre aprendizado de máquina, especialista em síntese de imagem humana. Ex-chefe de conteúdo de pesquisa da Metaphysic.ai.