toco Como a IA do Facebook espalha desinformação e ameaça a democracia - Unite.AI
Entre em contato

Líderes de pensamento

Como a IA do Facebook espalha desinformação e ameaça a democracia

mm
Atualização do on

Dan Tunkelang, que supervisionou a pesquisa de IA no LinkedIn, declarou: “No momento em que as recomendações têm o poder de influenciar as decisões, elas se tornam um alvo para spammers, golpistas e outras pessoas com motivos nada nobres”.

Este é o dilema que as empresas de mídia social, como o Facebook, estão enfrentando. Facebook usa feedback implícito para rastrear cliques, visualizações e outros comportamentos mensuráveis ​​do usuário. Isso é usado para projetar o que é identificado como um “mecanismo de recomendação”, um sistema de IA que tem o poder final de decidir quem vê qual conteúdo e quando.

O Facebook otimizou seu mecanismo de recomendação para maximizar o envolvimento do usuário, medido pela quantidade de tempo gasto na plataforma do Facebook. A maximização do tempo tem prioridade sobre qualquer outra variável, incluindo a qualidade ou precisão do que está sendo recomendado.

O sistema é projetado para recompensar as manchetes sensacionalistas que envolvem os usuários explorando o viés cognitivo, mesmo que essas manchetes tenham sido escritas por trolls russos com a intenção de dividir a sociedade ou influenciar as eleições políticas.

Como o Facebook usa IA

Há uma falta de consciência sobre como o Facebook usa IA para decidir sobre o que seus usuários veem e interagem. É preciso primeiro entender o que é viés de confirmação. Psychology Today descreve isso como:

O viés de confirmação é a tendência de procurar, interpretar, favorecer e recordar informações de uma forma que confirme ou apoie as crenças ou valores anteriores de alguém.

O Facebook entende que os usuários são mais propensos a clicar em notícias que alimentam a tendência humana de buscar viés de confirmação. Isso estabelece um precedente perigoso tanto para a disseminação de teorias da conspiração quanto para a criação de câmaras de eco onde os usuários são alimentados exclusivamente com o que desejam ver, independentemente da precisão ou do impacto social do que está sendo visto.

A estudo do MIT conseguiu demonstrar que notícias falsas no Twitter se espalham 6 vezes mais rápido do que notícias reais.

Isso significa que tanto o Twitter quanto o Facebook podem ser transformados em armas. Embora o Twitter permita que qualquer pessoa seguir feeds com pontos de vista estreitos ou tendenciosos, o Facebook leva isso um passo adiante. Atualmente, um usuário no Facebook não tem como controlar ou medir o que está sendo visto, isso é controlado inteiramente pelo mecanismo de recomendação do Facebook, como ele mede o engajamento do usuário e como otimiza para esse mesmo engajamento do usuário.

O Facebook tenta moldar e prever os desejos de seus usuários. O Facebook estima em que grau um usuário gostará ou não de uma notícia que ainda não foi experimentada pelo usuário. Para evitar a perda de engajamento do usuário, o Facebook opta por ignorar as notícias que podem reduzir o nível de engajamento e, em vez disso, opta por envolver o usuário alimentando o viés de confirmação, garantindo mais cliques, comentários, curtidas e ações.

O Facebook também usa filtragem colaborativa automatizada de ações e opiniões históricas do usuário para combinar automaticamente os participantes (amigos) com opiniões semelhantes. O Facebook usa uma função utilitária que prevê e classifica automaticamente e matematicamente suas preferências para os itens que você deseja ver.

Isso faz com que os usuários caiam em uma toca de coelho, eles ficam presos em notícias falsas, sendo alimentados com conteúdo que reforça seu viés. O conteúdo apresentado é inerentemente projetado com o objetivo de influenciar o que você clica. Afinal, se você acredita na conspiração de que Bill Gates está tentando microchipar a população humana usando vacinas, por que o Facebook deveria apresentar a você evidências contraditórias que podem fazer com que você se desvincule da plataforma? Se você apoia um determinado candidato político, por que o Facebook deveria oferecer notícias que possam contradizer suas opiniões positivas sobre esse mesmo candidato?

Como se isso não bastasse, o Facebook também envolve o que é conhecido como “prova social”. A prova social é o conceito de que as pessoas seguirão as ações das massas. A ideia é que, como tantas outras pessoas se comportam de determinada maneira, esse deve ser o comportamento correto.

O Facebook fornece essa prova social no contexto de curtidas, comentários ou compartilhamentos. Como apenas alguns amigos podem ver o item do feed de notícias (a menos que eles pesquisem especificamente o feed de notícias de um usuário), a prova social serve apenas para reforçar o viés de confirmação.

Facebook também usa bolhas de filtro para limitar a exposição a pontos de vista conflitantes, contraditórios e/ou desafiadores.

Anúncios do Facebook

Usuários desavisados ​​do Facebook podem ser clicar em anúncios sem estar ciente que eles estão sendo apresentados com anúncios. A razão para isso é simples, se houver um anúncio, apenas a primeira pessoa que for apresentada ao anúncio verá o aviso de isenção de responsabilidade. Se esse usuário compartilhar o anúncio, todos em sua lista de amigos simplesmente verão o “compartilhar” como um item de feed de notícias, pois o Facebook intencionalmente descarta o aviso de isenção de responsabilidade do anúncio. Imediatamente, os usuários baixam a guarda, não conseguem diferenciar entre o que é um anúncio e o que teria aparecido organicamente em seu feed de notícias.

Compartilhamentos do Facebook

Infelizmente, as coisas pioram. Se um usuário tiver 1000 amigos que compartilham conteúdo simultaneamente, o mecanismo de recomendação priorizará o conteúdo da minoria que compartilha as mesmas opiniões, mesmo que muitas vezes consistam em teorias da conspiração não comprovadas. O usuário terá então a ilusão de que esses itens do feed de notícias estão sendo vistos por todos. Ao interagir com esse feed de notícias, esses usuários estão otimizando a prova social uns dos outros.

Caso um usuário tente esclarecer outro usuário sobre um item enganoso ou falso, o próprio ato de comentar ou interagir com o feed de notícias simplesmente aumenta o tempo de envolvimento do usuário original. Esse ciclo de feedback faz com que o Facebook reforce o envolvimento desse usuário com notícias falsas adicionais.

Isso causa uma câmara de eco, uma bolha de filtro onde o usuário é treinado para acreditar apenas no que vê. A verdade é simplesmente uma ilusão.

Gravidade do problema

Mais de 10 milhões de pessoas envolvido com um feed de notícias alegando que o Papa Francisco se manifestou a favor da eleição de Trump em 2016. Não havia evidências disso, era simplesmente uma notícia falsa que saiu da Rússia, mas esta foi a notícia mais compartilhada no Facebook nos três meses anteriores até as eleições de 2016.

A notícia foi gerada por uma fazenda de trolls russa que se autodenomina “Agência de Pesquisa da Internet”. Essa mesma organização foi responsável por promover e compartilhar no Twitter e no Facebook artigos de isca racial, em favor da demonização do Black Lives Matter e do armamento de notícias falsas, espalhando falsas alegações sobre políticos americanos.

O Comitê Seleto de Inteligência divulgou uma Relatório da página 85 detalhando as Campanhas de Medidas Ativas Russas e Interferência, a maior parte das quais envolvia a disseminação de notícias falsas divisivas e propaganda que tinha a única intenção de influenciar a eleição de 2016 nos EUA.

Avanço rápido para a eleição de 2020 e o problema só se intensificou. Em setembro de 2020, após uma dica do FBI Facebook e Twitter contas de mídia social encerradas para uma organização de notícias chamada PeaceData, que está ligada aos esforços de propaganda estatal da Rússia.

Infelizmente, fechar contas é uma solução temporária e ineficaz. As contas russas geralmente assumem a forma de solicitações de amizade, muitas vezes enojadas por mulheres com perfis atraentes que visam homens, ou então com contas de usuários sequestradas com um histórico de postagens regulares. Essas contas sequestradas mudam lentamente para postagens mais políticas, até serem dominadas por propaganda ou teorias da conspiração.

Um usuário desavisado pode não saber que a conta de um amigo foi comprometida. Se esse usuário for vulnerável a teorias da conspiração, ele pode se envolver no item do feed de notícias falso, o troll russo que geralmente é um bot, e fornece prova social adicional na forma de curtidas ou comentários.

Os usuários vulneráveis ​​geralmente são aqueles que menos entendem como a tecnologia e a IA funcionam. O grupo demográfico com mais de 65 anos, que é a população com maior probabilidade de votar, também é o mais propenso a espalhar notícias falsas como relatado pelo New York Times.

De acordo com o estudo, usuários do Facebook com 65 anos ou mais postaram sete vezes mais artigos de sites de notícias falsas do que adultos de 29 anos ou menos. A falta de alfabetização em mídia digital desprepara essa faixa etária para um feed de notícias que não se baseia em fatos ou precisão, mas exclusivamente no engajamento do usuário.

Os maus atores estão tirando vantagem do mecanismo de recomendação do Facebook, que explora nossos vieses cognitivos contra nós. Essas mesmas organizações otimizaram o abuso da IA ​​do Facebook para espalhar teorias da conspiração e propaganda. As teorias da conspiração que podem parecer inocentes a princípio, são frequentemente usadas como funis para a supremacia branca, nacionalismo de extrema-direita ou QAnon uma teoria da conspiração bizarra envolvendo Trump tentando salvar o mundo de pedófilos liberais, uma conspiração que não tem base na realidade.

Resumo

O Facebook está claramente ciente de que há um problema e eles publicamente anunciou uma estratégia que se concentra na remoção de conteúdo que viole os padrões da comunidade do Facebook. O problema é que a exclusão de contas é uma medida paliativa temporária que é ineficaz quando as contas são geradas em massa por bots ou o hacking em massa de contas de usuários. Também não resolve o problema de que a maior parte do compartilhamento é feita por usuários comuns que não sabem que estão espalhando desinformação.

Adicionar rótulos de advertência serve simplesmente para reforçar as teorias da conspiração de que os gigantes da mídia social são tendenciosos contra os conservadores, que são os mais suscetível a notícias falsas.

A solução precisa ser um novo mecanismo de recomendação que mede não apenas o envolvimento do usuário, mas também é otimizado para a satisfação do usuário, fornecendo a verdade e promovendo uma maior autoconsciência.

Enquanto isso, o Facebook deve seguir o caminho que Twitter levou para proibir anúncios políticos.

Por fim, uma pergunta importante precisa ser feita. Se as pessoas não tiverem mais escolha sobre as notícias que veem, quando isso deixará de ser uma recomendação e quando se tornará um controle mental?

Leitura recomendada:

Campanhas de medidas ativas russas e interferências – Relatório do Comitê Seleto de Inteligência do Senado dos Estados Unidos.

O documento chocante que prevê o fim da democracia - Por Rick Shenkman, fundador da History News Network da Universidade George Washington.

Pessoas mais velhas compartilham notícias falsas no Facebook Mais – Por New York Times

Sócio fundador da unite.AI e membro do Conselho de Tecnologia da Forbes, Antoine é um futurista que é apaixonado pelo futuro da IA ​​e da robótica.

Ele também é o fundador da Valores Mobiliários.io, um site que foca em investir em tecnologia disruptiva.