toco Especialista diz que deepfakes "perfeitamente reais" estarão aqui em 6 meses - Unite.AI
Entre em contato

Inteligência artificial

Especialista diz que deepfakes “perfeitamente reais” estarão aqui em 6 meses

mm
Atualização do on

Os impressionantes, mas controversos, DeepFakes, imagens e vídeos manipulados ou gerados por redes neurais profundas, provavelmente se tornarão mais impressionantes e mais controversos em um futuro próximo, de acordo com Hao Li, diretor do Laboratório de Visão e Gráficos da Universidade do Sul. Califórnia. Li é especialista em visão computacional e DeepFakes, e em uma recente entrevista à CNBC ele disse que Deepfakes “perfeitamente reais” provavelmente chegarão dentro de meio ano.

Li explicou que a maioria dos DeepFakes ainda são reconhecíveis como falsos ao olho real, e mesmo os DeepFakes mais convincentes ainda exigem um esforço substancial por parte do criador para fazê-los parecer realistas. No entanto, Li está convencido de que, dentro de seis meses, os DeepFakes que parecem perfeitamente reais provavelmente aparecerão à medida que os algoritmos se tornarem mais sofisticados.

Li inicialmente pensou que levaria de dois a três anos para que os DeepFakes extremamente convincentes se tornassem mais comuns, fazendo essa previsão em uma conferência recente realizada no Instituto de Tecnologia de Massachusetts. No entanto, Li revisou sua linha do tempo após a revelação do recente aplicativo chinês Zao e outros desenvolvimentos recentes relacionados à tecnologia DeepFakes. li explicou à CNBC que os métodos necessários para criar DeepFakes realistas são mais ou menos o método atualmente usado e que o principal ingrediente que criará DeepFakes realistas são mais dados de treinamento.

Li e seus colegas pesquisadores têm trabalhado arduamente na tecnologia de detecção DeepFake, antecipando a chegada de DeepFakes extremamente convincentes. Li e seus colegas, como Hany Farid, da Universidade da Califórnia em Berkely, experimentaram algoritmos DeepFake de última geração para entender como funciona a tecnologia que os cria.

Li explicou à CNBC:

“Se você deseja detectar deepfakes, também precisa ver quais são os limites. Se você precisa construir estruturas de IA capazes de detectar coisas extremamente reais, elas precisam ser treinadas usando esses tipos de tecnologias; portanto, de certa forma, é impossível detectá-las se você não souber como funcionam.”

Li e seus colegas estão investindo na criação de ferramentas para detectar DeepFakes, reconhecendo os possíveis problemas e perigos que a tecnologia representa. Li e seus colegas estão longe de ser o único grupo de pesquisadores de IA preocupados com os possíveis efeitos dos DeepFakes e interessados ​​em criar contramedidas para eles.

Recentemente, Facebook iniciou uma parceria conjunta com o MIT, a Microsoft e a Universidade de Oxford para criar o DeepFake Detection Challenge, que visa criar ferramentas que possam ser usadas para detectar quando imagens ou vídeos foram alterados. Essas ferramentas serão de código aberto e utilizáveis ​​por empresas, organizações de mídia e governos. Enquanto isso, pesquisadores do Instituto de Ciências da Informação da Universidade do Sul da Califórnia criaram recentemente uma série de algoritmos que podem distinguir vídeos falsos com cerca de 96% de precisão.

No entanto, Li também explicou que o problema com os DeepFakes é a maneira como eles podem ser mal utilizados, e não a tecnologia em si. Li observou vários usos possíveis legítimos para a tecnologia DeepFake, inclusive nas indústrias de entretenimento e moda.

As técnicas do DeepFake também foram usadas para replicar as expressões faciais de pessoas com seus rostos obscurecidos em imagens. Os pesquisadores usaram Generative Adnversail Networks para criar um rosto totalmente novo que tivesse a mesma expressão de um assunto em uma imagem original. As técnicas desenvolvidas pela Universidade Norueguesa de Ciência e Tecnologia podem ajudar a renderizar expressões faciais durante entrevistas com pessoas sensíveis que precisam de privacidade, como denunciantes. Outra pessoa pode deixar seu rosto ser usado como substituto para a pessoa que precisa de anonimato, mas as expressões faciais da pessoa ainda podem ser lidas.

À medida que a sofisticação da tecnologia Deepfake aumenta, os casos de uso legítimos para Deepfakes também aumentam. No entanto, o perigo também aumentará e, por esse motivo, o trabalho de detecção de DeepFakes feito por Li e outros torna-se ainda mais importante.