Líderes de pensamento
Como o AI do Facebook Espalha Desinformação e Ameaça a Democracia

Dan Tunkelang, que supervisionou a pesquisa de IA no LinkedIn, afirmou: “No momento em que as recomendações têm o poder de influenciar decisões, elas se tornam um alvo para spammers, golpistas e outras pessoas com menos que motivos nobres.”
Isso é o dilema que as empresas de mídia social, como o Facebook, estão enfrentando. O Facebook usa feedback implícito para rastrear cliques, visualizações e outros comportamentos mensuráveis do usuário. Isso é usado para projetar o que é identificado como um “motor de recomendação”, um sistema de IA que tem o poder ultimate de decidir quem vê que conteúdo e quando.
O Facebook otimizou seu motor de recomendação para maximizar o engajamento do usuário, que é medido pela quantidade de tempo gasto colado à plataforma do Facebook. A maximização do tempo tem prioridade sobre qualquer outra variável, incluindo a qualidade ou a precisão do que está sendo recomendado.
O sistema é projetado para recompensar manchetes sensacionalistas que envolvem os usuários explorando vieses cognitivos, mesmo que essas manchetes sejam escritas por trolls russos com a intenção de dividir a sociedade ou influenciar eleições políticas.
Como o Facebook Usa IA
Há uma falta de conscientização sobre como o Facebook usa IA para decidir o que os usuários veem e interagem. Primeiro, é necessário entender o que é viés de confirmação. Psychology Today descreve isso como:
O viés de confirmação é a tendência de procurar, interpretar, favorecer e lembrar informações de uma maneira que confirme ou apoie as crenças ou valores anteriores.
O Facebook entende que os usuários são mais propensos a clicar em notícias que alimentam a tendência humana de buscar viés de confirmação. Isso estabelece um precedente perigoso para a propagação de teorias da conspiração e para a criação de câmaras de eco onde os usuários são alimentados exclusivamente com o que eles querem ver, independentemente da precisão ou do impacto social do que está sendo visto.
Um estudo do MIT foi capaz de demonstrar que notícias falsas no Twitter se espalham 6 vezes mais rápido do que notícias reais.
Isso significa que tanto o Twitter quanto o Facebook podem ser armados. Enquanto o Twitter permite que qualquer pessoa siga feeds com pontos de vista estreitos ou tendenciosos, o Facebook vai mais longe. Um usuário no Facebook atualmente não tem como controlar ou medir o que está sendo visto, isso é controlado inteiramente pelo motor de recomendação do Facebook, como ele mede o engajamento do usuário e como ele otimiza para o mesmo engajamento do usuário.
O Facebook tenta moldar e prever os desejos dos usuários. O Facebook estima em que medida um usuário gostará ou não de um item de notícia que ainda não foi experimentado pelo usuário. Para evitar uma perda no engajamento do usuário, o Facebook então escolhe contornar itens de notícia que possam reduzir o nível de engajamento e escolhe, em vez disso, engajar o usuário alimentando itens de notícia que alimentam o viés de confirmação, garantindo mais cliques, comentários, curtidas e compartilhamentos.
O Facebook também usa filtragem colaborativa automatizada de ações e opiniões históricas do usuário para combinar automaticamente participantes (amigos) com opiniões semelhantes. O Facebook usa uma função de utilidade que prevê e classifica matematicamente as preferências do usuário por itens que ele deseja ver.
Isso faz com que os usuários caiam em um buraco de coelho, eles estão presos em notícias falsas, sendo alimentados com conteúdo que reforça seus vieses. O conteúdo apresentado é intrinsicamente projetado com o objetivo de influenciar o que você clica.
Se você acredita na conspiração de que Bill Gates está tentando microchipar a população humana usando vacinas, por que o Facebook deveria apresentar evidências contraditórias que possam fazer com que você se desengaje da plataforma? Se você apoia um determinado candidato político, por que o Facebook deveria oferecer notícias que contradigam suas visões positivas sobre esse mesmo candidato?
Como se isso não fosse suficiente, o Facebook também engaja o que é conhecido como “prova social”. A prova social é o conceito de que as pessoas seguirão as ações da multidão.
O Facebook fornece essa prova social no contexto de curtidas, comentários ou compartilhamentos. Como apenas certos amigos podem ver o item de notícia (a menos que eles procurem especificamente a notícia de um usuário), a prova social simplesmente serve para reforçar o viés de confirmação.
O Facebook também usa bolhas de filtro para limitar a exposição a pontos de vista conflitantes, contraditórios e desafiadores.
Anúncios do Facebook
Usuários do Facebook podem estar clicando em anúncios sem saber que estão sendo apresentados com anúncios. O motivo é simples, se há um anúncio, apenas a primeira pessoa que é apresentada com o anúncio verá o aviso do anúncio. Se esse usuário compartilha o anúncio, todos os amigos da lista de amigos simplesmente veem o “compartilhamento” como um item de notícia, pois o Facebook intencionalmente dropa o aviso do anúncio. Imediatamente, os usuários baixam a guarda, eles não conseguem diferenciar entre o que é um anúncio e o que teria aparecido organicamente em sua notícia.
Compartilhamentos do Facebook
Infelizmente, as coisas pioram. Se um usuário tiver 1000 amigos que compartilham conteúdo simultaneamente, o motor de recomendação priorizará o conteúdo da minoria que compartilha as mesmas visões, mesmo que essas visões consistam em teorias da conspiração não comprovadas. O usuário então terá a ilusão de que esses itens de notícia estão sendo vistos por todos. Ao interagir com essa notícia, esses usuários estão otimizando a prova social uns dos outros.
Se um usuário tentar esclarecer outro usuário sobre um item de notícia enganoso ou falso, o ato de comentar ou interagir com a notícia simplesmente aumenta o tempo de engajamento do usuário original. Esse loop de feedback faz com que o Facebook reforce o engajamento desse usuário com mais notícias falsas.
Isso causa uma câmara de eco, uma bolha de filtro onde um usuário é treinado para acreditar apenas no que ele vê. A verdade é simplesmente uma ilusão.
Seriedade do Problema
Mais de 10 milhões de pessoas interagiram com uma notícia que afirmava que o Papa Francisco saiu em favor da eleição de Trump em 2016. Não havia evidências disso, era apenas uma notícia falsa que veio da Rússia, mas essa foi a notícia mais compartilhada no Facebook nos três meses que antecederam a eleição de 2016.
A notícia foi gerada por uma fazenda de trolls russa que se chama “Internet Research Agency”. Essa mesma organização foi responsável por promover e compartilhar no Twitter e no Facebook artigos que incitavam a raiva, a favor de demonizar o Black Lives Matter, e armas de notícias falsas que espalhavam alegações falsas sobre políticos americanos.
O Comitê Selecional de Inteligência lançou um relatório de 85 páginas detalhando Campanhas de Medidas Ativas Russas e Interferência, a maior parte das quais envolvia a propagação de notícias falsas e divisivas, e propaganda que tinha a intenção única de influenciar a eleição de 2016 nos EUA.
Avançando para a eleição de 2020, o problema só intensificou. Em setembro de 2020, após uma dica do FBI, o Facebook e o Twitter suspendeu contas de mídia social para uma organização de notícias que se chamava PeaceData, que está ligada aos esforços de propaganda do estado russo.
Infelizmente, fechar contas é uma solução temporária e ineficaz. Contas russas frequentemente tomam a forma de solicitações de amizade, frequentemente disfarçadas por mulheres com perfis atraentes que visam homens, ou contas de usuário hackeadas com um histórico de postagens regulares. Essas contas hackeadas lentamente mudam para postagens políticas, até que sejam dominadas por propaganda ou teorias da conspiração.
Um usuário inocente pode não estar ciente de que a conta de um amigo foi comprometida. Se esse usuário for vulnerável a teorias da conspiração, ele pode interagir com o item de notícia falso, o troll russo, que é frequentemente um bot, então fornece prova social adicional na forma de curtidas ou comentários.
Usuários vulneráveis são frequentemente aqueles que menos entendem como a tecnologia e a IA funcionam. A população com mais de 65 anos, que é a população mais propensa a votar, também é a mais propensa a espalhar notícias falsas, como relatado pelo New York Times.
De acordo com o estudo, os usuários do Facebook com 65 anos ou mais postaram sete vezes mais artigos de sites de notícias falsas do que adultos com 29 anos ou menos. Uma falta de alfabetização midiática digital deixa esse grupo despreparado para uma notícia que não é baseada em fatos ou precisão, mas exclusivamente em engajamento do usuário.
Atores ruins estão tirando proveito do motor de recomendação do Facebook, que explora nossos vieses cognitivos contra nós. Essas mesmas organizações otimizaram o abuso da IA do Facebook para espalhar teorias da conspiração e propaganda. Teorias da conspiração que podem parecer inofensivas no início, são frequentemente usadas como funis para supremacia branca, nacionalismo de direita, ou QAnon uma teoria da conspiração bizarra que envolve Trump tentando salvar o mundo de pedófilos liberais, uma conspiração que não tem base na realidade.
Resumo
O Facebook claramente está ciente de que há um problema e anunciou publicamente uma estratégia que se concentra em remover conteúdo que viola as Normas da Comunidade do Facebook. O problema é que excluir contas é uma medida temporária que é ineficaz quando as contas são geradas em massa por bots, ou o hacking em massa de contas de usuário. Isso também não resolve o problema de que a maioria do compartilhamento é feita por usuários regulares que não estão cientes de que estão espalhando desinformação.
Adicionar rótulos de advertência simplesmente serve para reforçar teorias da conspiração de que as gigantes das mídias sociais são tendenciosas contra os conservadores, que são os mais susceptíveis a notícias falsas.
A solução precisa ser um novo motor de recomendação que meça não apenas o engajamento do usuário, mas que seja otimizado para a felicidade do usuário, entregando a verdade e promovendo uma autoconsciência aprimorada.
Enquanto isso, o Facebook deve seguir o caminho que o Twitter tomou para banir anúncios políticos.
Por fim, uma pergunta importante precisa ser feita. Se as pessoas não têm mais escolha sobre as notícias que veem, quando isso deixa de ser uma recomendação e quando se torna controle da mente?
Leitura Recomendada:
Campanhas de Medidas Ativas Russas e Interferência – Relatório do Comitê Selecional de Inteligência do Senado dos EUA.
O Artigo Chocante que Prevê o Fim da Democracia – Por Rick Shenkman, fundador da Rede de Notícias de História da Universidade George Washington.
Pessoas Mais Velhas Compartilham Notícias Falsas no Facebook – Por New York Times












