Líderes de pensamento
Em 2024, os Deepfakes Estão se Tornando Mainstream. Aqui está Como as Empresas Podem se Proteger

Desde pelo menos a eleição de 2016, quando as preocupações em torno da desinformação irromperam na consciência pública, os especialistas vêm soando o alarme sobre os deepfakes. As implicações dessa tecnologia foram — e permanecem — aterrorizantes. A proliferação descontrolada de mídia sintética hiper-realista representa uma ameaça a todos — desde políticos até pessoas comuns. Em um ambiente já caracterizado por uma desconfiança generalizada, os deepfakes prometem apenas atiçar as chamas ainda mais.
Como se revelou, nossos medos foram prematuros. O conhecimento tecnológico necessário para realmente criar deepfakes, somado à sua qualidade frequentemente precária, significou que, pelo menos nos últimos dois ciclos de eleições presidenciais, eles permaneceram uma preocupação mínima.
Mas tudo isso está prestes a mudar — está mudando já. Nos últimos dois anos, a tecnologia de IA gerativa entrou no mainstream, simplificando radicalmente o processo de criação de deepfakes para o consumidor médio. Essas mesmas inovações aumentaram significativamente a qualidade dos deepfakes, de modo que, em um teste cego, a maioria das pessoas seria incapaz de distinguir um vídeo manipulado do real.
Este ano, especialmente, começamos a ver indícios de como essa tecnologia pode afetar a sociedade se esforços não forem feitos para combatê-la. No ano passado, por exemplo, uma foto gerada por IA do Papa Francisco usando um casaco estiloso incomum se tornou viral, e foi considerada autêntica por muitos. Embora isso possa parecer, em um nível, como um inocente pedaço de diversão, revela o potencial perigoso desses deepfakes e como é difícil conter a desinformação uma vez que começou a se espalhar. Podemos esperar encontrar instâncias menos divertidas — e muito mais perigosas — desse tipo de falsificação viral nos meses e anos que vêm.
Por essa razão, é imperativo que organizações de todos os tipos — desde a mídia até a finanças, passando por governos e plataformas de mídia social — adotem uma postura proativa em relação à detecção de deepfakes e à verificação de autenticidade de conteúdo. Uma cultura de confiança por meio de salvaguardas precisa ser estabelecida agora, antes que uma onda de deepfakes possa varrer nossa compreensão compartilhada da realidade.
Entendendo a ameaça dos deepfakes
Antes de mergulhar no que as organizações podem fazer para combater essa onda de deepfakes, vale a pena elaborar sobre por que ferramentas de segurança são necessárias. Tipicamente, aqueles preocupados com deepfakes citam seu potencial efeito na política e na confiança social. Essas consequências potenciais são extremamente importantes e não devem ser negligenciadas em qualquer conversa sobre deepfakes. Mas, como se revela, o surgimento dessa tecnologia tem efeitos potencialmente desastrosos em vários setores da economia dos EUA.
Vamos considerar o seguro, por exemplo. Atualmente, o fraude de seguro anual nos Estados Unidos soma US$ 308,6 bilhões — um número aproximadamente um quarto do tamanho de toda a indústria. Ao mesmo tempo, as operações de back-end da maioria das empresas de seguros estão cada vez mais automatizadas, com 70% dos reclamos padrão projetados para serem sem toque até 2025. Isso significa que as decisões são cada vez mais tomadas com mínima intervenção humana: autoatendimento na frente e automação facilitada por IA na parte de trás.
Ironicamente, a própria tecnologia que permitiu esse aumento na automação — ou seja, aprendizado de máquina e inteligência artificial — garantiu sua exploração por atores mal-intencionados. Agora é mais fácil do que nunca para a pessoa comum manipular reclamos — por exemplo, usando programas de IA gerativa como Dall-E, Midjourney ou Stable Diffusion para fazer com que um carro pareça mais danificado do que realmente está. Já existem aplicativos específicos para esse propósito, como Dude Your Car!, que permite aos usuários criar artificialmente amassados em fotos de seus veículos.
O mesmo se aplica a documentos oficiais, que agora podem ser facilmente manipulados — com faturas, avaliações de underwriting e até assinaturas ajustadas ou inventadas por completo. Essa capacidade é um problema não apenas para as seguradoras, mas em toda a economia. É um problema para instituições financeiras, que devem verificar a autenticidade de uma ampla gama de documentos. É um problema para varejistas, que podem receber uma reclamação de que um produto chegou defeituoso, acompanhada de uma imagem manipulada.
As empresas simplesmente não podem operar com esse grau de incerteza. Alguns graus de fraude são provavelmente sempre inevitáveis, mas com deepfakes, não estamos falando de fraude nas margens — estamos falando de uma potencial catástrofe epistemológica na qual as empresas não têm meios claros de determinar a verdade da ficção e acabam perdendo bilhões de dólares devido a essa confusão.
Lutando contra o fogo com fogo: como a IA pode ajudar
Então, o que pode ser feito para combater isso? Talvez não seja surpreendente, a resposta está na própria tecnologia que facilita os deepfakes. Se queremos parar essa praga antes que ela ganhe mais momentum, precisamos lutar fogo com fogo. A IA pode ajudar a gerar deepfakes — mas também, afortunadamente, pode ajudar a identificá-los automaticamente e em escala.
Usando as ferramentas de IA certas, as empresas podem determinar automaticamente se uma fotografia, vídeo ou documento foi manipulado. Trazendo dezenas de modelos distintos para a tarefa de identificação de falsificações, a IA pode informar automaticamente às empresas se uma fotografia ou vídeo é suspeito. Como as ferramentas que as empresas já estão implantando para automatizar operações diárias, essas ferramentas podem funcionar em segundo plano sem sobrecarregar a equipe superlotada ou tirar tempo de projetos importantes.
Se e quando uma fotografia for identificada como potencialmente alterada, a equipe humana pode então ser alertada e pode avaliar o problema diretamente, auxiliada pelas informações fornecidas pela IA. Usando análise de varredura profunda, pode informar às empresas por que acredita que uma fotografia provavelmente foi manipulada — apontando, por exemplo, para metadados alterados manualmente, a existência de imagens idênticas na web, várias irregularidades fotográficas, etc.
Nada disso é para denegrir os incríveis avanços que vimos na tecnologia de IA gerativa nos últimos anos, que de fato têm aplicações úteis e produtivas em várias indústrias. Mas a própria potência — para não mencionar a simplicidade — dessa tecnologia emergente quase garante seu abuso por aqueles que buscam manipular organizações, seja para ganho pessoal ou para semear caos social.
As organizações podem ter o melhor de dois mundos: os benefícios de produtividade da IA sem os contras dos deepfakes ubíquos. Mas fazer isso requer um novo grau de vigilância, especialmente considerando o fato de que as saídas da IA gerativa estão se tornando mais persuasivas, detalhadas e realistas a cada dia. Quanto mais cedo as organizações direcionarem sua atenção para esse problema, mais cedo poderão colher os benefícios integrais de um mundo automatizado.










