Connect with us

Inteligencia artificial

Ingenieros de IA desarrollan método que puede detectar la intención de aquellos que difunden información falsa

mm

Lidar con la desinformación en la era digital es un problema complejo. No solo la desinformación debe ser identificada, etiquetada y corregida, sino que también debe distinguirse la intención de los responsables de hacer la afirmación. Una persona puede difundir información falsa sin saberlo, o simplemente estar dando su opinión sobre un tema, aunque más tarde se informe como hecho. Recientemente, un equipo de investigadores y ingenieros de IA en Dartmouth creó un marco que se puede utilizar para derivar la opinión de los informes de “noticias falsas”.

Como informa ScienceDaily, el estudio del equipo de Dartmouth se publicó recientemente en la Revista de Inteligencia Artificial Experimental y Teórica. Mientras que estudios anteriores han intentado identificar noticias falsas y luchar contra el engaño, este podría ser el primer estudio que apuntó a identificar la intención del hablante en una pieza de noticias. Mientras que una historia verdadera puede ser distorsionada en varias formas engañosas, es importante distinguir si el engaño fue intencional o no. El equipo de investigación argumenta que la intención es importante al considerar la desinformación, ya que el engaño solo es posible si hubo intención de engañar. Si un individuo no se dio cuenta de que estaba difundiendo información falsa o si simplemente estaba dando su opinión, no puede haber engaño.

Eugene Santos Jr., profesor de ingeniería en la Escuela de Ingeniería Thayer de Dartmouth, explicó a ScienceDaily por qué su modelo intenta distinguir la intención engañosa:

“La intención engañosa de engañar a los oyentes a propósito supone una amenaza mucho mayor que los errores involuntarios. Hasta donde sabemos, nuestro algoritmo es el único método que detecta el engaño y al mismo tiempo discrimina actos maliciosos de actos benignos”.

Para construir su modelo, el equipo de investigación analizó las características del razonamiento engañoso. El algoritmo resultante podría distinguir la intención de engañar de otras formas de comunicación centrándose en las discrepancias entre los argumentos pasados de una persona y sus declaraciones actuales. El modelo construido por el equipo de investigación necesita grandes cantidades de datos que se pueden utilizar para medir cómo una persona se desvía de sus argumentos pasados. Los datos de entrenamiento que el equipo utilizó para entrenar su modelo consistieron en datos tomados de una encuesta de opiniones sobre temas controvertidos. Más de 100 personas dieron su opinión sobre estos temas controvertidos. También se extrajeron datos de reseñas de 20 hoteles diferentes, que consistían en 400 reseñas ficticias y 800 reseñas reales.

Según Santos, el marco desarrollado por los investigadores podría ser refinado y aplicado por organizaciones de noticias y lectores, para permitirles analizar el contenido de artículos de “noticias falsas”. Los lectores podrían examinar artículos en busca de la presencia de opiniones y determinar por sí mismos si se ha utilizado un argumento lógico. Santos también dijo que el equipo quiere examinar el impacto de la desinformación y los efectos en cascada que tiene.

La cultura popular a menudo representa comportamientos no verbales como expresiones faciales como indicadores de que alguien está mintiendo, pero los autores del estudio señalan que estos indicios conductuales no son siempre indicadores confiables de mentira. Deqing Li, coautor del artículo, explicó que su investigación encontró que los modelos basados en la intención de razonamiento son mejores indicadores de mentira que las diferencias conductuales y verbales. Li explicó que los modelos de intención de razonamiento “son mejores para distinguir mentiras intencionales de otros tipos de distorsión de información”.

El trabajo de los investigadores de Dartmouth no es el único avance reciente en la lucha contra la desinformación con IA. Los artículos de noticias con títulos de clickbait a menudo ocultan información falsa. Por ejemplo, a menudo implican que algo sucedió cuando en realidad ocurrió otro evento.

Como informa AINews, un equipo de investigadores de la Universidad Estatal de Arizona y la Universidad Estatal de Pensilvania colaboraron para crear una IA que pudiera detectar títulos de clickbait. Los investigadores pidieron a las personas que escribieran sus propios títulos de clickbait y también escribieron un programa para generar títulos de clickbait. Ambas formas de títulos se utilizaron para entrenar un modelo que pudiera detectar títulos de clickbait de manera efectiva, independientemente de si fueron escritos por máquinas o personas.

Según los investigadores, su algoritmo fue alrededor de un 14,5% más preciso en la detección de títulos de clickbait que otras IA habían sido en el pasado. El investigador principal del proyecto y profesor asociado en la Facultad de Ciencias y Tecnología de la Información en la Universidad Estatal de Pensilvania, Dongwon Lee, explicó cómo su experimento demuestra la utilidad de generar datos con una IA y alimentarlos de nuevo en una tubería de entrenamiento.

“Este resultado es bastante interesante, ya que demostramos con éxito que los datos de entrenamiento de clickbait generados por máquina pueden ser alimentados de nuevo en la tubería de entrenamiento para entrenar una amplia variedad de modelos de aprendizaje automático para mejorar su rendimiento”, explicó Lee.

Bloguero y programador con especialidades en Machine Learning y Deep Learning temas. Daniel espera ayudar a otros a utilizar el poder de la IA para el bien social.