Inteligência artificial
Bots evoluíram para imitar melhor o comportamento humano para as eleições de 2020

Emilio Ferrara, um cientista da computação de Instituto de Ciências da Informação da USC (USC ISI), tem uma nova pesquisa mostrando que bots e contas falsas nas mídias sociais estão evoluindo para imitar melhor os comportamentos humanos para não serem detectados, tudo habilitado pela inteligência artificial.
A pesquisa, feita por Ferrara e sua equipe que incluía Luca Luceri (Universidade de Ciências Aplicadas do Sul da Suíça), Ashok Deb (USC ISI) e Silvia Giordano (Scuola Universitaria Professionale della Svizzera Italiana) foi publicado na revista Primeira segunda-feira. Eles analisaram os diferentes bots e contas falsas que foram usados durante as eleições de 2018 nos EUA e os compararam com o comportamento das eleições de 2016 nos EUA.
No total, a equipe de pesquisadores estudou cerca de 250,000 usuários ativos de mídia social e se concentrou naqueles que discutiram as eleições de 2016 e 2018. Desses 250,000 usuários, a equipe descobriu que 30,000 deles eram bots.
Os bots nas eleições de 2016 retuitaram principalmente o conteúdo e se concentraram em enviar grandes quantidades de tweets sobre o mesmo assunto ou mensagem. Os bots em 2018 evoluíram da mesma forma que os humanos quando se tratava de mídia social. Os bots começaram a retuitar menos conteúdo e pararam de compartilhar essas mensagens em grande volume.
Os bots em 2018 se tornaram melhores em imitar o comportamento humano. Os pesquisadores descobriram que eles eram mais propensos a usar vários bots ao mesmo tempo para parecer mais autênticos. Eles usaram isso para parecer que era um engajamento humano legítimo em torno de uma ideia.
Naquela época, os humanos começaram a se envolver por meio de respostas, em vez de retuítes. Os bots seguiram isso também. Eles usaram as respostas para se engajar no diálogo e estabelecer uma voz sobre um problema ou mensagem. Eles também usaram pesquisas para replicar uma estratégia usada por agências de notícias e pesquisas de opinião legítimas. Os pesquisadores acreditam que essas pesquisas foram usadas para construir uma imagem de boa reputação.
Um dos exemplos que os pesquisadores usaram foi um bot que postou uma enquete online no Twitter sobre as eleições federais. A enquete questionava se deveria ser exigida a apresentação de documento de identidade ao votar nestas eleições. O bot então pediu aos usuários do Twitter que votassem e retuitassem a enquete.
Emilio Ferrara, o principal autor do estudo, falou sobre a nova pesquisa e o que ela significa.
“Nosso estudo corrobora ainda mais essa ideia de que existe uma corrida armamentista entre bots e algoritmos de detecção. À medida que as empresas de mídia social se esforçam mais para mitigar o abuso e sufocar as contas automatizadas, os bots evoluem para imitar as estratégias humanas. Os avanços na IA permitem que os bots produzam mais conteúdo semelhante ao humano. Precisamos dedicar mais esforços para entender como os bots evoluem e como os mais sofisticados podem ser detectados. Com as próximas eleições nos EUA em 2020, a integridade do discurso da mídia social é de suma importância para permitir um processo democrático livre de influências externas.”
Grandes Implicações para o Futuro
O problema de contas falsas de mídia social online e bots durante as eleições tem sido um problema há anos. Os problemas que se desenrolavam durante as eleições de 2016 pareciam enormes na época, mas eram pequenos diante do que veremos no futuro próximo. Com inteligência artificial, isso vai piorar.
Os bots continuarão evoluindo para melhorar a imitação do comportamento humano, em grande parte graças à inteligência artificial. Chegará a um ponto em que será impossível determinar quem é real e quem não é. Isso significa que haverá implicações dramáticas não apenas para as próximas eleições nos EUA em 2020, mas também para todas as futuras eleições lá e em todo o mundo.












