Inteligencia artificial
Un modelo de IA puede identificar a los difusores de desinformación antes de que actúen

Un modelo de IA creado por investigadores de la Universidad de Sheffield puede determinar potencialmente qué usuarios de Twitter publicarán desinformación antes de que lo hagan. Si el modelo resulta ser confiable, podría utilizarse para complementar los métodos existentes para combatir la desinformación en las redes sociales.
Según TechXplore, el estudio fue liderado por investigadores del Departamento de Ciencias de la Computación de la Universidad de Sheffield, incluyendo al Dr. Nikos Aletras y a Yida Mu. El estudio se publicó en la revista PeerJ y detalla los métodos utilizados para predecir si un usuario de las redes sociales es probable que difunda desinformación al publicar contenido de fuentes de noticias no confiables.
El equipo de investigación recopiló más de 1 millón de tuits de más de 6000 usuarios de Twitter, todos disponibles públicamente. El equipo aplicó técnicas de procesamiento de lenguaje natural para preparar los datos para el entrenamiento de un modelo de IA. El modelo de IA era un modelo de clasificación binaria, que etiquetaba a los usuarios como probablemente compartan información de fuentes no confiables o no probablemente lo hagan. Después de que el modelo se entrenó con los datos, logró una precisión de clasificación de aproximadamente el 79,7%.
Al analizar los resultados del rendimiento del modelo, los investigadores encontraron que los usuarios que utilizaban un lenguaje grosero y constantemente tuiteaban sobre religión y política eran más propensos a publicar información de fuentes no confiables. En particular, hubo un uso intensivo de palabras como “liberal”, “medios”, “gobierno”, “Israel” e “Islam”. Mientras que los usuarios que publicaban información de fuentes confiables tendían a utilizar palabras como “I’ll”, “gonna”, “wanna”, “mood”, “excited” y “cumpleaños”. Más allá de esto, típicamente compartían historias sobre sus vidas personales, como interacciones con amigos, sus emociones o información sobre sus hobbies.
Los hallazgos del estudio podrían ayudar a las empresas de redes sociales como Facebook, Reddit y Twitter a ingeniar nuevas formas de combatir la difusión de información falsa en línea. La investigación también podría ayudar a los psicólogos y científicos sociales a comprender mejor el comportamiento que conduce a la difusión rampante de información falsa en una red social.
Como explicó Aletras según TechXplore, las redes sociales se han convertido en una de las formas predominantes en que las personas obtienen sus noticias. Millones de usuarios en todo el mundo obtienen sus noticias a través de Facebook y Twitter todos los días, pero estas plataformas también se han convertido en herramientas para difundir desinformación en la sociedad. Aletras continuó explicando que identificar de manera confiable ciertas tendencias en el comportamiento del usuario podría ayudar a frenar la desinformación. Como explicó Aletras, hay una “correlación entre el uso de lenguaje grosero y la difusión de contenido no confiable que se puede atribuir a una alta hostilidad política en línea”.
Según Mu, analizar el comportamiento de los usuarios que comparten información no confiable puede ayudar a las plataformas de redes sociales a complementar los métodos de verificación de hechos existentes y modelar la desinformación a nivel de usuario. Como dijo Mu a través de TechXplore:
“Estudiar y analizar el comportamiento de los usuarios que comparten contenido de fuentes de noticias no confiables puede ayudar a las plataformas de redes sociales a prevenir la difusión de noticias falsas a nivel de usuario, complementando los métodos de verificación de hechos existentes que funcionan a nivel de publicación o fuente de noticias”.
La investigación realizada por Aletras y Mu podría ser un ejemplo de utilizar la IA para combatir la desinformación generada por la IA. En los últimos meses, ha habido un aumento en la desinformación que rodea la política local y nacional, con gran parte del contenido generado y difundido por algoritmos de IA. Las redes neuronales profundas se han utilizado para construir fotografías realistas y perfiles de cuentas falsas que sirven como difusores de noticias falsas. La investigación de Aletras y Mu podría ayudar a las empresas de redes sociales a determinar qué cuentas son falsas, cuentas de bots creadas con el propósito de difundir propaganda y desinformación dañina.
