toco Modelo de IA pode identificar espalhadores de desinformação antes que eles ajam - Unite.AI
Entre em contato

Inteligência artificial

Modelo de IA pode identificar espalhadores de desinformação antes que eles ajam

mm
Atualização do on

Um modelo de IA criado por pesquisadores da Universidade de Sheffield pode potencialmente determinar quais usuários do Twitter postarão desinformação antes que eles realmente o façam. Se o modelo for confiável, ele poderá ser usado para complementar os métodos existentes de combate à desinformação nas mídias sociais.

De acordo com a TechXplore, O estudo foi liderado por pesquisadores do Departamento de Ciência da Computação da Universidade de Sheffield, incluindo o Dr. Nikos Aletras e Yida Mu. O estudo foi publicado na revista PeerJ e detalha os métodos usados ​​para prever se um usuário de mídia social provavelmente espalhará desinformação ao postar conteúdo de fontes de notícias não confiáveis.

A equipe de pesquisa coletou mais de 1 milhão de tweets de mais de 6000 usuários do Twitter, todos disponíveis publicamente. A equipe aplicou técnicas de processamento de linguagem natural para preparar os dados para o treinamento de um modelo de IA. A IA era um modelo de classificação binária, rotulando os usuários como propensos a compartilhar informações de fontes não confiáveis ​​ou não. Depois que o modelo foi treinado nos dados, ele conseguiu atingir aproximadamente 79.7% de precisão de classificação.

Ao analisar os resultados do desempenho do modelo, os pesquisadores descobriram que os usuários que usavam linguagem indelicada e tuitavam constantemente sobre religião e política eram mais propensos a postar informações de fontes não confiáveis. Em particular, houve uso intenso de palavras como “liberal”, “mídia”, “governo”, “Israel” e “Islã”. Enquanto isso, os usuários que postavam informações de fontes confiáveis ​​tendiam a usar palavras como “vou”, “vou”, “quero”, “humor”, “animado” e “aniversário”. Além disso, eles normalmente compartilhavam histórias sobre suas vidas pessoais, como interações com amigos, suas emoções ou informações sobre seus hobbies.

As descobertas do estudo podem ajudar empresas de mídia social como Facebook, Reddit e Twitter a projetar novas formas de combater a disseminação de desinformação online. A pesquisa também pode ajudar psicólogos e cientistas sociais a entender melhor o comportamento que leva à disseminação desenfreada de desinformação em uma rede social.

Como Aletras explicou de acordo com a TechXplore, a mídia social se transformou em uma das formas predominantes pelas quais as pessoas obtêm suas notícias. Milhões de usuários em todo o mundo obtêm suas notícias através do Facebook e do Twitter todos os dias, mas essas plataformas também se tornaram ferramentas para espalhar desinformação por toda a sociedade. Aletras continuou explicando que a identificação confiável de certas tendências no comportamento do usuário pode ajudar a conter a desinformação. Como Aletras explicou, havia uma “correlação entre o uso de linguagem indelicada e a disseminação de conteúdo não confiável que pode ser atribuída à alta hostilidade política online”.

De acordo com Mu, a análise do comportamento dos usuários que compartilham informações não confiáveis ​​pode ajudar as plataformas de mídia social, complementando os métodos de verificação de fatos existentes e modelando a desinformação no nível do usuário. Como Mu disse via TechXplore:

“Estudar e analisar o comportamento dos usuários que compartilham conteúdo de fontes de notícias não confiáveis ​​pode ajudar as plataformas de mídia social a evitar a disseminação de notícias falsas no nível do usuário, complementando os métodos existentes de verificação de fatos que funcionam no nível da postagem ou da fonte de notícias.”

A pesquisa conduzida por Aletras e Mu pode ser um exemplo do uso da IA ​​para combater a desinformação gerada pela IA. Nos últimos meses, houve um aumento na desinformação em torno da política local e nacional, com grande parte do conteúdo gerado e divulgado por algoritmos de IA. Redes neurais profundas têm sido empregadas para construir fotografias realistas e perfis de contas falsas que servem como disseminadores de notícias falsas. A pesquisa com a qual Aletras e Mu estão envolvidos pode ajudar as empresas de mídia social a descobrir quais contas são falsas, contas de bot criadas com o objetivo de espalhar propaganda prejudicial e desinformação.

Blogueiro e programador com especialidades em Machine Learning e Aprendizagem profunda tópicos. Daniel espera ajudar outras pessoas a usar o poder da IA ​​para o bem social.