Connect with us

Deepfakes e Navegando a Nova Era da Mídia Sintética

Líderes de pensamento

Deepfakes e Navegando a Nova Era da Mídia Sintética

mm

Lembre-se de “notícias falsas”? O termo foi usado (e abusado) tanto que pode ser difícil lembrar ao que se referia inicialmente. Mas o conceito tem uma origem muito específica. Há dez anos, jornalistas começaram a soar o alarme sobre um influxo de supostos “sites de notícias” que lançavam afirmações falsas, muitas vezes absurdas, sobre políticos e celebridades. Muitos podiam identificar instantaneamente que esses sites eram ilegítimos.

Mas muitos mais careciam das ferramentas críticas para reconhecer isso. O resultado foi o primeiro movimento de uma crise epistemológica que agora está engolindo a internet – uma que alcançou sua manifestação mais assustadora com o surgimento de deepfakes.

Ao lado de um deepfake sequer passável, os “sites de notícias falsas” de outrora parecem mansos. Pior ainda, mesmo aqueles que acreditam possuir níveis relativamente altos de alfabetização midiática estão em risco de serem enganados. Mídia sintética criada com o uso de algoritmos de aprendizado profundo e IA geradora têm o potencial de causar estragos nas fundações de nossa sociedade. De acordo com a Deloitte, este ano alone elas podem custar às empresas mais de $250 milhões por meio de transações falsas e outras variedades de fraude. Enquanto isso, o Fórum Econômico Mundial chamou os deepfakes de “um dos usos mais preocupantes da IA”, apontando para o potencial de “chatbots e avatares de IA com agenda, em tempo real” para facilitar novas cepas de manipulação ultra-personalizada (e ultra-eficaz).

A resposta sugerida pelo Fórum Econômico Mundial a esse problema é sensata: eles defendem uma “mentalidade de confiança zero“, que traz um grau de ceticismo a cada encontro com mídia digital. Se queremos distinguir entre o autêntico e o sintético em frente—especialmente em ambientes online imersivos—essa mentalidade será cada vez mais essencial.

Duas abordagens para combater a crise dos deepfakes

Combater a desinformação rampante criada por mídia sintética exigirá, na minha opinião, duas abordagens distintas.

A primeira envolve verificação: fornecer uma maneira simples para os usuários comuns da internet determinarem se o vídeo que estão olhando é de fato autêntico. Ferramentas como essas já são amplamente utilizadas em indústrias como seguros, dado o potencial de atores mal-intencionados arquivarem reclamações falsas auxiliadas por vídeos, fotografias e documentos manipulados. Democratizar essas ferramentas—torná-las gratuitas e fáceis de acessar—é um passo crucial nessa luta, e estamos vendo um movimento significativo nesse sentido.

O segundo passo é menos tecnológico e, portanto, mais desafiador: nomeadamente, aumentar a conscientização e fomentar habilidades de pensamento crítico. No rescaldo do escândalo original de “notícias falsas”, em 2015, organizações sem fins lucrativos em todo o país elaboraram programas de alfabetização midiática e trabalharam para disseminar as melhores práticas, muitas vezes em parceria com instituições cívicas locais para empoderar cidadãos comuns a identificar falsidades. Claro, “notícias falsas” do velho estilo são brincadeira de criança em comparação com os deepfakes mais avançados, o que é por que precisamos redobrar nossos esforços nesse sentido e investir em educação em todos os níveis.

Deepfakes avançados exigem pensamento crítico avançado

Claro, essas iniciativas educacionais eram um pouco mais fáceis de empreender quando a desinformação em questão era baseada em texto. Com sites de notícias falsas, os sinais de fraude eram muitas vezes óbvios: design de site canhestro, erros de digitação abundantes, fontes bizarras. Com deepfakes, os sinais são muito mais sutis—e, na maioria das vezes, impossíveis de notar à primeira vista.

Consequentemente, usuários da internet de todas as idades precisam re-treinar-se efetivamente para examinar vídeo digital em busca de indicadores de deepfakes. Isso significa prestar atenção a uma série de fatores. Para vídeo, isso poderia significar áreas borradas e sombras irreais; movimentos e expressões faciais não naturais; tons de pele perfeitos demais; padrões inconsistentes em roupas e movimentos; erros de sincronização labial; e assim por diante. Para áudio, isso poderia significar vozes que soam muito puras (ou obviamente digitalizadas), falta de tom emocional humano, padrões de fala estranhos ou frases incomuns.

No curto prazo, esse tipo de auto-treinamento pode ser muito útil. Ao nos perguntarmos, repetidamente, Isso parece suspeito?, afiamos não apenas nossa capacidade de detectar deepfakes, mas também nossas habilidades de pensamento crítico em geral. Dito isso, estamos rapidamente nos aproximando de um ponto em que nem mesmo o olho mais treinado será capaz de separar fato de ficção sem assistência externa. Os sinais visuais—irregularidades mencionadas acima—serão tecnologicamente suavizados, de modo que clipes completamente fabricados serão indistinguíveis do artigo genuíno. O que nos restará é nossa intuição situacional—nossa capacidade de nos perguntar coisas como Um político ou celebridade realmente diria isso? É plausível o conteúdo desse vídeo?

É nesse contexto que as plataformas de detecção de IA se tornam essenciais. Com o olho nu tornado irrelevante para a detecção de deepfakes, essas plataformas podem servir como árbitros definitivos da realidade—guarda-chuvas contra o abismo epistemológico. Quando um vídeo parece real, mas de alguma forma parece suspeito—como ocorrerá cada vez mais nos próximos meses e anos—essas plataformas podem nos manter aterrados nos fatos, confirmando a veracidade básica do que estamos olhando. Em última análise, com tecnologia tão poderosa, a única coisa que pode nos salvar é a própria IA. Precisamos lutar fogo com fogo—usar boa IA para erradicar os piores abusos da tecnologia.

Realmente, a aquisição dessas habilidades de modo algum precisa ser um processo cínico ou negativo. Fomentar uma mentalidade de confiança zero pode, em vez disso, ser considerado uma oportunidade para afiar nosso pensamento crítico, intuição e conscientização. Ao nos perguntarmos, repetidamente, certas perguntas-chave—Isso faz sentido? Isso é suspeito?—aumentamos nossa capacidade de confrontar não apenas mídia falsa, mas o mundo em geral. Se há um lado positivo na era dos deepfakes, este é. Estamos sendo forçados a pensar por nós mesmos e a nos tornar mais empíricos em nossas vidas diárias—and isso só pode ser uma coisa boa.

Nicos Vekiarides é o diretor executivo e co-fundador de Attestiv. Ele passou os últimos 20 anos em TI empresarial e nuvem, como CEO e empreendedor, trazendo novas tecnologias inovadoras para o mercado. Sua startup anterior, TwinStrata, uma empresa de armazenamento em nuvem inovadora onde ele pioneirou o armazenamento integrado à nuvem para empresas, foi adquirida pela EMC em 2014. Antes disso, ele trouxe para o mercado o primeiro appliance de virtualização de armazenamento da indústria para a StorageApps, uma empresa posteriormente adquirida pela HP.