Inteligência artificial
Ferramentas de navegador AI visam reconhecer deepfakes e outras mídias falsas

Os esforços das empresas de tecnologia para combater a desinformação e o conteúdo falso estão ganhando força nos últimos tempos, à medida que tecnologias sofisticadas de geração de conteúdo falso, como DeepFakes, se tornam mais fáceis de usar e mais refinadas. Uma próxima tentativa de ajudar as pessoas a detectar e combater deepfakes é o RealityDefender, produzido por a Fundação de IA, que se comprometeu a desenvolver agentes e assistentes de IA éticos que os usuários possam treinar para realizar várias tarefas.
O projeto mais notável da AI Foundation é uma plataforma que permite que as pessoas criem suas próprias personas digitais que se pareçam com elas e as representem em espaços virtuais de encontro. A AI Foundation é supervisionada pelo Global AI Council e, como parte de seu mandato, eles devem antecipar os possíveis impactos negativos das plataformas de IA e tentar se antecipar a esses problemas. Conforme relatado por VentureBeat, Uma das ferramentas que a AI Foundation criou para auxiliar na detecção de deepfakes é apelidada de Reality Defender. O Reality Defender é uma ferramenta que uma pessoa pode usar em seu navegador da Web (verifique isso), que analisará vídeos, imagens e outros tipos de mídia para detectar sinais de que a mídia foi falsificada ou alterada de alguma forma. Espera-se que a ferramenta ajude a neutralizar o crescente fluxo de deepfakes na internet, que, segundo algumas estimativas, praticamente dobrou ao longo dos últimos seis meses.
O Reality Defender opera utilizando uma variedade de algoritmos baseados em IA que podem detectar pistas sugerindo que uma imagem ou vídeo pode ter sido falsificado. Os modelos de IA detectam sinais sutis de trapaça e manipulação, e os falsos positivos que o modelo detecta são rotulados como incorretos pelos usuários da ferramenta. Os dados são então usados para retreinar o modelo. As empresas de IA que criam deepfakes não enganosos têm seu conteúdo marcado com uma tag ou marca d'água de “IA honesta” que permite que as pessoas identifiquem prontamente as falsificações geradas por IA.
O Reality Defender é apenas uma de um conjunto de ferramentas e toda uma plataforma de responsabilidade de IA que a AI Foundation está tentando criar. A AI Foundation está buscando a criação do Guardian AI, uma plataforma de responsabilidade construída sobre o preceito de que os indivíduos devem ter acesso a agentes pessoais de IA que trabalham para eles e que podem ajudar a protegê-los contra sua exploração por malfeitores. Essencialmente, a AI Foundation tem como objetivo expandir o alcance da IA na sociedade, levando-a para mais pessoas, ao mesmo tempo em que protege contra os riscos da IA.
O Reality Defender não é o único novo produto baseado em IA com o objetivo de reduzir a desinformação nos Estados Unidos. Um produto semelhante é chamado SurfSafe, que foi criado por dois alunos de graduação da UC Berkeley, Rohan Phadte e Ash Bhat. Segundo The Verge, o SurfSafe opera permitindo que seus usuários cliquem em uma mídia que eles estão curiosos e o programa fará uma pesquisa reversa de imagens e tentará encontrar conteúdo semelhante em várias fontes confiáveis na internet, sinalizando imagens que sabidamente são medicado.
Não está claro o quão eficazes essas soluções serão a longo prazo. Dartmouth College professor e especialista forense Hany Farid foi citado pelo The Verge como dizendo que ele é "extremamente cético" que planeja sistemas como o Reality Defender funcionará em uma capacidade significativa. Farid explicou que um dos principais desafios na detecção de conteúdo falso é que a mídia não é puramente falsa ou real. Farid explicou:
“Existe um continuum; uma gama incrivelmente complexa de questões para lidar. Algumas mudanças não têm sentido e algumas alteram fundamentalmente a natureza de uma imagem. Fingir que podemos treinar uma IA para identificar a diferença é incrivelmente ingênuo. E fingir que podemos fazer crowdsourcing é ainda mais.”
Além disso, é difícil incluir elementos de crowdsourcing, como a marcação de falsos positivos, porque os humanos geralmente são muito ruins em identificar imagens falsas. Frequentemente, cometem erros e deixam passar detalhes sutis que marcam uma imagem como falsa. Também não está claro como lidar com pessoas de má-fé que trollam ao sinalizar conteúdo.
Parece provável que, para serem mais eficazes, as ferramentas de detecção de falsificações terão de ser combinadas com esforços de alfabetização digital que ensinam as pessoas a raciocinar sobre o conteúdo com o qual interagem online.










