Contáctenos

Los bots han evolucionado para imitar mejor el comportamiento humano para las elecciones de 2020

Inteligencia Artificial

Los bots han evolucionado para imitar mejor el comportamiento humano para las elecciones de 2020

mm

Emilio Ferrara, informático de Instituto de Ciencias de la Información de la USC (USC ISI), tiene una nueva investigación que muestra que los bots y las cuentas falsas en las redes sociales están evolucionando para imitar mejor los comportamientos humanos a fin de no ser detectados, todo habilitado por inteligencia artificial. 

La investigación, realizada por Ferrara y su equipo que incluía a Luca Luceri (Universidad de Ciencias Aplicadas del Sur de Suiza), Ashok Deb (USC ISI) y Silvia Giordano (Scuola Universitaria Professionale della Svizzera Italiana) se publicó en la revista Primer lunes. Examinaron los diferentes bots y cuentas falsas que se usaron durante las elecciones de EE. UU. de 2018 y los compararon con el comportamiento de las elecciones de EE. UU. de 2016. 

En total, el equipo de investigadores estudió a unos 250,000 2016 usuarios activos de las redes sociales y se centró en aquellos que hablaron sobre las elecciones de 2018 y 250,000. De esos 30,000 XNUMX usuarios, el equipo descubrió que XNUMX XNUMX de ellos eran bots. 

En las elecciones de 2016, los bots retuitearon principalmente contenido y se centraron en enviar grandes cantidades de tuits sobre el mismo tema o mensaje. Los bots en 2018 evolucionaron tal como lo hicieron los humanos en lo que respecta a las redes sociales. Los bots comenzaron a retuitear menos contenido y dejaron de compartir esos mensajes en gran volumen. 

Los bots en 2018 mejoraron al imitar el comportamiento humano. Los investigadores descubrieron que era más probable que usaran varios bots al mismo tiempo para parecer más auténticos. Usaron esto para parecer como si fuera un compromiso humano legítimo en torno a una idea. 

En ese momento, los humanos comenzaron a participar a través de respuestas en lugar de retuits. Los bots también siguieron esto. Utilizaron las respuestas para participar en el diálogo y establecer una voz sobre un tema o mensaje. También utilizaron encuestas para replicar una estrategia utilizada por encuestadores y medios de comunicación legítimos. Los investigadores creen que esas encuestas se usaron para construir una imagen de reputación. 

 Uno de los ejemplos que usaron los investigadores fue un bot que publicó una encuesta de Twitter en línea sobre las elecciones federales. La encuesta preguntó si se debe exigir la presentación de una identificación al votar en estas elecciones. Luego, el bot pidió a los usuarios de Twitter que votaran y retuitearan la encuesta. 

Emilio Ferrara, el autor principal del estudio, habló sobre la nueva investigación y lo que significa. 

“Nuestro estudio corrobora aún más esta idea de que existe una carrera armamentista entre los bots y los algoritmos de detección. A medida que las empresas de redes sociales se esfuerzan más por mitigar el abuso y sofocar las cuentas automatizadas, los bots evolucionan para imitar las estrategias humanas. Los avances en IA permiten que los bots produzcan contenido más humano. Necesitamos dedicar más esfuerzos para comprender cómo evolucionan los bots y cómo se pueden detectar los más sofisticados. Con las próximas elecciones estadounidenses de 2020, la integridad del discurso en las redes sociales es de suma importancia para permitir un proceso democrático libre de influencias externas”.

 

Grandes implicaciones para el futuro

El problema de las cuentas falsas de redes sociales en línea y los bots durante las elecciones ha sido un problema durante años. Los problemas que se desarrollaron durante las elecciones de 2016 parecían enormes en ese momento, pero eso fue pequeño en comparación con lo que veremos en el futuro cercano. Con la inteligencia artificial, esto empeorará. 

Los bots seguirán evolucionando para imitar mejor el comportamiento humano, en gran parte gracias a la inteligencia artificial. Llegará a un punto en el que será imposible determinar quién es real y quién no. Esto significa que habrá implicaciones dramáticas no solo para las próximas elecciones estadounidenses de 2020, sino también para todas las elecciones futuras allí y en todo el mundo. 

 

Alex McFarland es un periodista y escritor sobre inteligencia artificial que explora los últimos avances en inteligencia artificial. Ha colaborado con numerosas empresas emergentes y publicaciones de IA en todo el mundo.