Líderes de opinión
Cómo el AI de Facebook difunde información errónea y amenaza la democracia

Dan Tunkelang, quien supervisó la investigación de AI en LinkedIn, declaró: “En el momento en que las recomendaciones tienen el poder de influir en las decisiones, se convierten en un objetivo para los spammers, estafadores y otras personas con motivos menos que nobles”.
Esto es el dilema que están experimentando las empresas de medios sociales como Facebook. Facebook utiliza retroalimentación implícita para rastrear clics, vistas y otros comportamientos de los usuarios medibles. Esto se utiliza para diseñar lo que se identifica como un “motor de recomendación”, un sistema de AI que tiene el poder último para decidir quién ve qué contenido y cuándo.
Facebook ha optimizado su motor de recomendación para maximizar la participación del usuario, que se mide por la cantidad de tiempo que se pasa pegado a la plataforma de Facebook. La maximización del tiempo tiene prioridad sobre cualquier otra variable, incluida la calidad o precisión de lo que se recomienda.
El sistema está diseñado para recompensar titulares sensacionalistas que involucran a los usuarios explotando el sesgo cognitivo, incluso si esos titulares fueron escritos por trolls rusos con la intención de dividir a la sociedad o influir en las elecciones políticas.
Cómo Facebook utiliza el AI
Hay una falta de conciencia sobre cómo Facebook utiliza el AI para decidir qué es lo que sus usuarios ven y con qué interactúan. Primero, uno debe entender qué es el sesgo de confirmación. Psychology Today describe esto como:
El sesgo de confirmación es la tendencia a buscar, interpretar, favorecer y recordar información de una manera que confirme o apoye las creencias o valores previos de uno.
Facebook entiende que los usuarios son más propensos a hacer clic en noticias que alimentan la tendencia humana a buscar el sesgo de confirmación. Esto establece un precedente peligroso tanto para la difusión de teorías de la conspiración como para la creación de cámaras de eco donde los usuarios se alimentan exclusivamente de lo que quieren ver, sin importar la precisión o el impacto social de lo que se ve.
Un estudio de MIT pudo demostrar que las noticias falsas en Twitter se propagan 6 veces más rápido que las noticias reales.
Esto significa que tanto Twitter como Facebook pueden ser utilizados como armas. Mientras que Twitter permite a cualquiera seguir feeds con puntos de vista estrechos o sesgados, Facebook lo lleva un paso más allá. Un usuario en Facebook actualmente no tiene forma de controlar o medir qué es lo que se ve, esto es controlado enteramente por el motor de recomendación de Facebook, cómo mide la participación del usuario y cómo se optimiza para esta misma participación del usuario.
Facebook intenta moldear y predecir los deseos de sus usuarios. Facebook estima hasta qué grado un usuario gustará o no gustará de un artículo de noticias que aún no ha experimentado el usuario. Para evitar una pérdida en la participación del usuario, Facebook elige entonces evitar artículos de noticias que puedan reducir el nivel de participación, y elige en su lugar involucrar al usuario alimentando artículos de noticias que alimentan el sesgo de confirmación, asegurando más clics, comentarios, gustos y compartidos.
Facebook también utiliza un filtro de colaboración automatizado de acciones y opiniones históricas de los usuarios para emparejar automáticamente a los participantes (amigos) con opiniones similares. Facebook utiliza una función de utilidad que predice y clasifica automáticamente y matemáticamente sus preferencias para artículos que desea ver.
Esto causa que los usuarios caigan en un agujero de conejo, están atrapados en noticias falsas, siendo alimentados con contenido que refuerza su sesgo. El contenido que se presenta está inherentemente diseñado con el objetivo de influir en lo que hace clic.
Después de todo, si cree la conspiración de que Bill Gates está tratando de microchipar a la población humana mediante el uso de vacunas, ¿por qué debería Facebook presentarle evidencia contradictoria que pueda hacer que se desenganche de la plataforma? Si apoya a un candidato político determinado, ¿por qué debería Facebook ofrecer noticias que contradigan sus puntos de vista positivos sobre ese mismo candidato?
Como si esto no fuera suficiente, Facebook también se involucra en lo que se conoce como “prueba social”. La prueba social es el concepto de que las personas seguirán las acciones de las masas. La idea es que, como muchas otras personas se comportan de una cierta manera, debe ser el comportamiento correcto.
Facebook proporciona esta prueba social en el contexto de gustos, comentarios o compartidos. Dado que solo ciertos amigos pueden ver el elemento de la fuente de noticias (a menos que busquen específicamente la fuente de noticias de un usuario), la prueba social simplemente sirve para reforzar el sesgo de confirmación.
Facebook también utiliza burbujas de filtro para limitar la exposición a puntos de vista contradictorios, contradictorios y desafiantes.
Anuncios de Facebook
Los usuarios de Facebook pueden estar haciendo clic en anuncios sin ser conscientes de que se les presentan anuncios. La razón es simple, si hay un anuncio, solo la primera persona que se le presenta el anuncio verá el aviso del anuncio. Si ese usuario comparte el anuncio, todos en su lista de amigos simplemente ven la “compartir” como un elemento de la fuente de noticias, ya que Facebook intencionalmente deja caer el aviso del anuncio. Inmediatamente, los usuarios bajan la guardia, no pueden diferenciar entre lo que es un anuncio y lo que habría aparecido orgánicamente en su fuente de noticias.
Compartir en Facebook
Desafortunadamente, las cosas empeoran. Si un usuario tiene 1000 amigos que comparten contenido simultáneamente, el motor de recomendación priorizará el contenido de la minoría que comparte las mismas opiniones, incluso si estas a menudo consisten en teorías de la conspiración no probadas. El usuario entonces estará bajo la ilusión de que estos elementos de la fuente de noticias son vistos por todos. Al interactuar con este elemento de la fuente de noticias, estos usuarios están optimizando la prueba social entre sí.
Si un usuario intenta iluminar a otro usuario sobre un elemento de la fuente de noticias engañoso o falso, el mismo acto de comentar o interactuar con el elemento de la fuente de noticias simplemente aumenta el tiempo de participación del usuario original. Este bucle de retroalimentación causa que Facebook refuerce la participación de ese usuario con noticias falsas adicionales.
Esto causa una cámara de eco, una burbuja de filtro donde un usuario es entrenado para creer solo en lo que ve. La verdad es simplemente una ilusión.
Gravedad del problema
Más de 10 millones de personas interactuaron con una fuente de noticias que afirmaba que el Papa Francisco salió en favor de la elección de Trump en 2016. No había evidencia de esto, era simplemente una noticia falsa que salió de Rusia, sin embargo, esta fue la noticia más compartida en Facebook en los tres meses previos a las elecciones de 2016.
El elemento de la fuente de noticias fue generado por una granja de trolls rusa que se hace llamar la “Agencia de Investigación de Internet”. Esta misma organización fue responsable de promover y compartir en Twitter y Facebook artículos que incitan a la violencia racial, a favor de demonizar a Black Lives Matter, y armas de noticias falsas que difunden afirmaciones falsas sobre políticos estadounidenses.
El Comité Selecto de Inteligencia lanzó un informe de 85 páginas que detalla las campañas de Medidas Activas Rusas y la Interferencia, la mayor parte de las cuales involucraron la difusión de noticias falsas y propaganda divisiva que tenían la intención única de influir en las elecciones de 2016 en EE. UU.
Avanzando hacia las elecciones de 2020, el problema solo se ha intensificado. En septiembre de 2020, después de una pista del FBI, Facebook y Twitter suspendieron cuentas de medios sociales para una organización de noticias que se hace llamar PeaceData, que está vinculada a los esfuerzos de propaganda estatal de Rusia.
Desafortunadamente, cerrar cuentas es una solución temporal e ineficaz. Las cuentas rusas a menudo toman la forma de solicitudes de amistad, a menudo disgustadas por mujeres con perfiles atractivos que apuntan a los hombres, o con cuentas de usuarios secuestradas con un historial de publicaciones regulares. Estas cuentas secuestradas cambian lentamente a publicaciones políticas, hasta que están dominadas por propaganda o teorías de la conspiración.
Un usuario desprevenido puede no ser consciente de que la cuenta de un amigo ha sido comprometida. Si ese usuario es vulnerable a las teorías de la conspiración, puede interactuar con el elemento de la fuente de noticias falso, el troll ruso que a menudo es un bot, entonces proporciona prueba social adicional en forma de gustos o comentarios.
Los usuarios vulnerables son a menudo aquellos que menos entienden cómo funcionan la tecnología y el AI. La población de más de 65 años, que es la población más probable de votar, también es la más probable de difundir noticias falsas, como informó el New York Times.
Según el estudio, los usuarios de Facebook de 65 años y mayores publicaron siete veces más artículos de sitios web de noticias falsas que los adultos de 29 años y menores. La falta de alfabetización en medios digitales tiene a este grupo sin preparación para una fuente de noticias que no se basa en hechos o precisión, sino exclusivamente en la participación del usuario.
Los malos actores están aprovechando el motor de recomendación de Facebook, que explota nuestros sesgos cognitivos en nuestra contra. Estas mismas organizaciones han optimizado el abuso del AI de Facebook para difundir teorías de la conspiración y propaganda. Las teorías de la conspiración que pueden parecer inocentes al principio, a menudo se utilizan como embudos para el supremacismo blanco, el nacionalismo de derecha o QAnon una teoría de la conspiración extraña que involucra a Trump tratando de salvar al mundo de los pedófilos liberales, una conspiración que no tiene base en la realidad.
Resumen
Facebook está claramente consciente de que hay un problema y han anunciado públicamente una estrategia que se centra en eliminar contenido que viola las Normas de la Comunidad de Facebook. El problema es que eliminar cuentas es una medida temporal que es ineficaz cuando las cuentas se generan en bulk por bots, o el hacking masivo de cuentas de usuarios. También no soluciona el problema de que la mayor parte de la compartición es por parte de usuarios regulares que no son conscientes de que están difundiendo información errónea.
Agregar etiquetas de advertencia simplemente sirve para reforzar teorías de la conspiración de que los gigantes de los medios sociales están sesgados en contra de los conservadores, que son los más susceptibles a las noticias falsas.
La solución necesita ser un nuevo motor de recomendación que mida no solo la participación del usuario, sino que se optimice para la felicidad del usuario al entregar la verdad y promover una mayor conciencia de sí mismo.
Mientras tanto, Facebook debería seguir el camino que Twitter tomó para prohibir anuncios políticos.
Finalmente, una pregunta importante debe ser hecha. Si las personas ya no tienen una elección en las noticias que ven, ¿cuándo deja de ser una recomendación y cuándo se convierte en control mental?
Lectura recomendada:
Campañas de Medidas Activas Rusas y la Interferencia – Informe del Comité Selecto de Inteligencia del Senado de los Estados Unidos.
El papel impactante que predice el fin de la democracia – Por Rick Shenkman, fundador de la Red de Noticias de Historia de la Universidad George Washington.
Las personas mayores comparten noticias falsas en Facebook más – Por el New York Times












