talón Modelo de IA puede identificar a quienes propagan desinformación antes de que actúen - Unite.AI
Contáctanos

Inteligencia artificial

Modelo de IA puede identificar a quienes propagan desinformación antes de que actúen

mm
Actualizado on

Un modelo de IA creado por investigadores de la Universidad de Sheffield puede determinar potencialmente qué usuarios de Twitter publicarán información falsa antes de que realmente lo hagan. Si el modelo resulta confiable, podría usarse para complementar los métodos existentes para combatir la desinformación en las redes sociales.

Según TechXploreEl estudio fue dirigido por investigadores del Departamento de Ciencias de la Computación de la Universidad de Sheffield, incluidos el Dr. Nikos Aletras y Yida Mu. El estudio fue publicado en la revista PeerJ y detalla los métodos utilizados para predecir si es probable que un usuario de las redes sociales difunda desinformación al publicar contenido de fuentes de noticias poco confiables.

El equipo de investigación recopiló más de 1 millón de tweets de más de 6000 usuarios de Twitter, todos disponibles públicamente. El equipo aplicó técnicas de procesamiento del lenguaje natural para preparar los datos para el entrenamiento de un modelo de IA. La IA era un modelo de clasificación binaria, que etiquetaba a los usuarios como propensos a compartir información de fuentes no confiables o no. Después de entrenar el modelo con los datos, pudo lograr aproximadamente un 79.7 % de precisión de clasificación.

Al analizar los resultados del rendimiento del modelo, los investigadores encontraron que los usuarios que usaban un lenguaje muy descortés y constantemente tuiteaban sobre religión y política tenían más probabilidades de publicar información de fuentes poco confiables. En particular, hubo un uso intensivo de palabras como "liberal", "medios de comunicación", "gobierno", "Israel" e "Islam". Mientras tanto, los usuarios que publicaron información de fuentes confiables tendieron a usar palabras como "lo haré", "voy a", "quiero", "estado de ánimo", "emocionado" y "cumpleaños". Más allá de esto, normalmente compartían historias sobre su vida personal, como interacciones con amigos, sus emociones o información sobre sus pasatiempos.

Los hallazgos del estudio podrían ayudar a las empresas de redes sociales como Facebook, Reddit y Twitter a diseñar nuevas formas de combatir la difusión de información errónea en línea. La investigación también podría ayudar a los psicólogos y científicos sociales a comprender mejor el comportamiento que conduce a la propagación desenfrenada de información errónea en una red social.

Como explicó Aletras según TechXplore, las redes sociales se han transformado en una de las formas predominantes en que las personas obtienen sus noticias. Millones de usuarios en todo el mundo reciben sus noticias a través de Facebook y Twitter todos los días, pero estas plataformas también se han convertido en herramientas para difundir la desinformación en la sociedad. Aletras continuó explicando que la identificación confiable de ciertas tendencias en el comportamiento de los usuarios podría ayudar a frenar la desinformación. Como explicó Aletras, hubo una "correlación entre el uso de lenguaje descortés y la difusión de contenido poco confiable que puede atribuirse a una alta hostilidad política en línea".

Según Mu, analizar el comportamiento de los usuarios que comparten información no confiable puede ayudar a las plataformas de redes sociales al complementar los métodos de verificación de hechos existentes y modelar la desinformación a nivel del usuario. Como dijo Mu a través de TechXplore:

"Estudiar y analizar el comportamiento de los usuarios que comparten contenido de fuentes de noticias poco confiables puede ayudar a las plataformas de redes sociales a prevenir la propagación de noticias falsas a nivel de usuario, complementando los métodos de verificación de datos existentes que funcionan en la publicación o en el nivel de fuente de noticias".

La investigación realizada por Aletras y Mu podría ser un ejemplo del uso de la IA para combatir la información errónea generada por la IA. En los últimos meses se ha visto un aumento en la desinformación en torno a la política local y nacional, con gran parte del contenido generado y difundido por algoritmos de IA. Se han empleado redes neuronales profundas para construir fotografías y perfiles realistas de cuentas falsas que sirven como difusores de noticias falsas. La investigación en la que están involucrados Aletras y Mu podría ayudar a las empresas de redes sociales a descubrir qué cuentas son falsas, cuentas de bots creadas con el propósito de difundir propaganda dañina e información errónea.