Connect with us

Inteligência artificial

O que são Deepfakes?

mm

À medida que os deepfakes se tornam mais fáceis de criar e mais prolíficos, mais atenção é dada a eles. Os deepfakes se tornaram o foco das discussões envolvendo ética de IA, desinformação, abertura de informações e internet, e regulação. É importante estar informado sobre os deepfakes e ter uma compreensão intuitiva do que são os deepfakes. Este artigo esclarecerá a definição de um deepfake, examinará seus casos de uso, discutirá como os deepfakes podem ser detectados e examinará as implicações dos deepfakes para a sociedade.

O que são Deepfakes?

Antes de prosseguir para discutir os deepfakes mais a fundo, seria útil gastar algum tempo para esclarecer o que “deepfakes” realmente são. Há uma grande quantidade de confusão sobre o termo Deepfake, e frequentemente o termo é aplicado incorretamente a qualquer mídia falsificada, independentemente de ser ou não um verdadeiro deepfake. Para se qualificar como um Deepfake, a mídia falsificada em questão deve ser gerada com um sistema de aprendizado de máquina, especificamente uma rede neural profunda.

O ingrediente-chave dos deepfakes é o aprendizado de máquina. O aprendizado de máquina tornou possível que os computadores gerem vídeo e áudio automaticamente de forma relativamente rápida e fácil. As redes neurais profundas são treinadas em imagens de uma pessoa real para que a rede aprenda como as pessoas se parecem e se movem sob as condições ambientais alvo. A rede treinada é então usada em imagens de outra pessoa e aumentada com técnicas de gráficos computacionais adicionais para combinar a nova pessoa com as imagens originais. Um algoritmo de codificador é usado para determinar as semelhanças entre o rosto original e o rosto alvo. Uma vez que as características comuns dos rostos tenham sido isoladas, um segundo algoritmo de IA chamado decodificador é usado. O decodificador examina as imagens codificadas (comprimidas) e as reconstrói com base nas características das imagens originais. Dois decodificadores são usados, um no rosto do sujeito original e o segundo no rosto da pessoa alvo. Para que a troca seja feita, o decodificador treinado em imagens da pessoa X é alimentado com imagens da pessoa Y. O resultado é que o rosto da pessoa Y é reconstruído sobre as expressões faciais e orientação da pessoa X.

Atualmente, ainda leva um tempo razoável para que um deepfake seja criado. O criador da falsificação precisa gastar muito tempo ajustando manualmente os parâmetros do modelo, pois parâmetros subótimos levarão a imperfeições notáveis e glitches de imagem que revelam a natureza falsa da falsificação.

Embora seja frequentemente assumido que a maioria dos deepfakes é feita com um tipo de rede neural chamada rede adversária generativa (GAN), muitos (talvez a maioria) deepfakes criados hoje não dependem de GANs. Embora as GANs tenham desempenhado um papel proeminente na criação de deepfakes iniciais, a maioria dos vídeos de deepfakes é criada por meio de métodos alternativos, de acordo com Siwei Lyu, da SUNY Buffalo.

Leva uma grande quantidade de dados de treinamento para treinar uma GAN, e as GANs geralmente levam muito mais tempo para renderizar uma imagem em comparação com outras técnicas de geração de imagens. As GANs também são melhores para gerar imagens estáticas do que vídeo, pois as GANs têm dificuldades em manter a consistência de quadro a quadro. É muito mais comum usar um codificador e vários decodificadores para criar deepfakes.

Para que são usados os Deepfakes?

Muitos dos deepfakes encontrados online são de natureza pornográfica. De acordo com uma pesquisa realizada pela Deeptrace, uma empresa de IA, de uma amostra de aproximadamente 15.000 vídeos de deepfakes coletados em setembro de 2019, aproximadamente 95% deles eram de natureza pornográfica. Uma implicação preocupante desse fato é que, à medida que a tecnologia se torna mais fácil de usar, os incidentes de vingança pornográfica falsa podem aumentar.

No entanto, nem todos os deepfakes são de natureza pornográfica. Há usos mais legítimos para a tecnologia de deepfake. A tecnologia de áudio de deepfake pode ajudar as pessoas a transmitir suas vozes regulares após elas serem danificadas ou perdidas devido a doenças ou lesões. Os deepfakes também podem ser usados para ocultar os rostos de pessoas que estão em situações sensíveis e potencialmente perigosas, permitindo que seus lábios e expressões sejam lidos. A tecnologia de deepfake pode ser usada para melhorar a dublagem de filmes em línguas estrangeiras, ajudar na reparação de mídias antigas e danificadas e até criar novos estilos de arte.

Deepfakes não-vídeos

Embora a maioria das pessoas pense em vídeos falsos quando ouve o termo “deepfake”, os vídeos falsos não são o único tipo de mídia falsa produzida com a tecnologia de deepfake. A tecnologia de deepfake é usada para criar fotos e áudios falsos. Como mencionado anteriormente, as GANs são frequentemente usadas para gerar imagens falsas. Acredita-se que houve muitos casos de perfis falsos no LinkedIn e no Facebook que têm imagens de perfil geradas com algoritmos de deepfake.

É possível criar áudios de deepfake. As redes neurais profundas são treinadas para produzir clones de voz/peles de voz de diferentes pessoas, incluindo celebridades e políticos. Um exemplo famoso de áudio de deepfake é quando a empresa de IA Dessa usou um modelo de IA, apoiado por algoritmos não de IA, para recriar a voz do apresentador de podcast Joe Rogan.

Como detectar Deepfakes

À medida que os deepfakes se tornam mais sofisticados, distinguir entre eles e a mídia genuína se tornará cada vez mais difícil. Atualmente, há alguns sinais reveladores que as pessoas podem procurar para determinar se um vídeo é potencialmente um deepfake, como sincronização labial ruim, movimento não natural, piscamento ao redor da borda do rosto e distorção de detalhes finos como cabelo, dentes ou reflexos. Outros sinais potenciais de um deepfake incluem partes de menor qualidade do mesmo vídeo e piscamento irregular dos olhos.

Embora esses sinais possam ajudar a detectar um deepfake no momento, à medida que a tecnologia de deepfake melhora, a única opção para detecção confiável de deepfakes pode ser outros tipos de IA treinados para distinguir entre falsos e mídia real.

Empresas de inteligência artificial, incluindo muitas das grandes empresas de tecnologia, estão pesquisando métodos de detecção de deepfakes. No último dezembro, um desafio de detecção de deepfakes foi iniciado, apoiado por três gigantes da tecnologia: Amazon, Facebook e Microsoft. Equipes de pesquisa de todo o mundo trabalharam em métodos de detecção de deepfakes, competindo para desenvolver os melhores métodos de detecção. Outros grupos de pesquisadores, como um grupo de pesquisadores combinados do Google e do Jigsaw, estão trabalhando em um tipo de “forense facial” que pode detectar vídeos que foram alterados, tornando seus conjuntos de dados abertos e incentivando outros a desenvolver métodos de detecção de deepfakes. A mencionada Dessa trabalhou no aprimoramento das técnicas de detecção de deepfakes, tentando garantir que os modelos de detecção funcionem em vídeos de deepfakes encontrados na internet, e não apenas em conjuntos de dados de treinamento e teste pré-compostos, como o conjunto de dados de código aberto fornecido pelo Google.

Há também outras estratégias que estão sendo investigadas para lidar com a proliferação de deepfakes. Por exemplo, verificar vídeos para concordância com outras fontes de informações é uma estratégia. Buscas podem ser feitas por vídeos de eventos potencialmente filmados de outros ângulos, ou detalhes de fundo do vídeo (como padrões climáticos e locais) podem ser verificados para incongruências. Além disso, um sistema de registro online de Blockchain pode registrar vídeos quando são criados inicialmente, mantendo seu áudio e imagens originais, para que os vídeos derivados possam sempre ser verificados para manipulação.

Em última análise, é importante que métodos confiáveis de detecção de deepfakes sejam criados e que esses métodos de detecção acompanhem os últimos avanços na tecnologia de deepfake. Embora seja difícil saber exatamente quais serão os efeitos dos deepfakes, se não houver métodos confiáveis de detecção de deepfakes (e outras formas de mídia falsa), a desinformação pode potencialmente se espalhar e degradar a confiança das pessoas na sociedade e nas instituições.

Implicações dos Deepfakes

Quais são os perigos de permitir que os deepfakes se proliferem sem controle?

Um dos principais problemas que os deepfakes criam atualmente é a pornografia não consensual, criada combinando os rostos das pessoas com vídeos e imagens pornográficas. Éticos de IA estão preocupados de que os deepfakes verão mais uso na criação de vingança pornográfica falsa. Além disso, os deepfakes podem ser usados para intimidar e danificar a reputação de quase qualquer pessoa, pois podem ser usados para colocar as pessoas em cenários controversos e comprometedores.

Empresas e especialistas em segurança cibernética expressaram preocupação sobre o uso de deepfakes para facilitar golpes, fraudes e extorsão. Alegadamente, áudio de deepfake foi usado para convencer os funcionários de uma empresa a transferir dinheiro para golpistas

É possível que os deepfakes tenham efeitos prejudiciais além dos listados acima. Os deepfakes podem potencialmente erodir a confiança das pessoas na mídia em geral e tornar difícil para as pessoas distinguir entre notícias reais e notícias falsas. Se muitos vídeos na web forem falsos, torna-se mais fácil para governos, empresas e outras entidades lançar dúvidas sobre controvérsias legítimas e práticas antiéticas.

Quando se trata de governos, os deepfakes podem até representar ameaças ao funcionamento da democracia. A democracia exige que os cidadãos sejam capazes de tomar decisões informadas sobre políticos com base em informações confiáveis. A desinformação subverte os processos democráticos. Por exemplo, o presidente do Gabão, Ali Bongo, apareceu em um vídeo tentando acalmar a população do Gabão. O presidente foi considerado doente por um longo período de tempo, e sua súbita aparição em um vídeo provavelmente falso desencadeou uma tentativa de golpe. O presidente Donald Trump alegou que uma gravação de áudio dele se gabando de agarrar mulheres pelos genitais era falsa, apesar de também descrevê-la como “conversa de vestiário”. O príncipe Andrew também alegou que uma imagem fornecida pelo advogado de Emily Maitilis era falsa, embora o advogado insistisse em sua autenticidade.

Em última análise, embora haja usos legítimos para a tecnologia de deepfake, há muitos danos potenciais que podem surgir do mau uso dessa tecnologia. Por esse motivo, é extremamente importante que métodos para determinar a autenticidade da mídia sejam criados e mantidos.

Blogueiro e programador com especialidades em Machine Learning e Deep Learning tópicos. Daniel espera ajudar os outros a usar o poder da IA para o bem social.