Inteligencia artificial
Facebook utiliza bots y simulaciones para tratar de contrarrestar el mal comportamiento de los usuarios

Facebook ha diseñado una nueva inteligencia artificial destinada a detectar mejor el comportamiento dañino, perjudicial y ilegal. Como informa The Verge, los investigadores del departamento de inteligencia artificial de Facebook en Londres han creado un simulador de Facebook impulsado por inteligencia artificial llamado “WW”, que se utiliza para simular el comportamiento de estafadores, comerciantes de productos ilegales, spammers y otros actores maliciosos en una versión simulada de Facebook en sí.
El simulador de Facebook conocido como “WW”, que toma su nombre de una truncación de “WWW”, fue revelado por Facebook en un documento publicado en abril de este año. WW es una versión clonada y contenida de Facebook destinada a ayudar en la prueba de diversas herramientas y algoritmos de Facebook.
La empresa acaba de divulgar más detalles sobre algunos de sus usos para WW, uno de los cuales es la simulación de actores maliciosos a través de la inteligencia artificial. Al utilizar una serie de bots para simular comportamientos como el fraude, el spam, el acoso y más, los investigadores esperan poder detectar y contrarrestar mejor el comportamiento dañino de los usuarios.
Según el ingeniero de Facebook Mark Harman, citado por The Verge, se anticipa que WW será una herramienta valiosa para frenar diversos comportamientos dañinos en Facebook. Por ejemplo, Harman cree que las simulaciones se pueden utilizar para ingeniar mejores métodos de detección de estafadores.
Los ingenieros de Facebook imitaron el comportamiento de estafadores de Facebook en la vida real creando dos grupos de bots: un grupo de objetivos y un grupo de estafadores. Los estafadores a menudo buscan en las redes de amigos, explorando los amigos de los usuarios, para encontrar un objetivo potencial. Este comportamiento fue imitado por los bots estafadores mientras los ingenieros experimentaban con diferentes métodos para prevenir que el bot inocente fuera estafado. Las tácticas que experimentaron incluyeron numerosas limitaciones como limitar la cantidad de mensajes privados que un bot podía enviar cada minuto.
Hay algunas formas en que la simulación de Facebook difiere de la real. Por un lado, la simulación de Facebook no incluye elementos visuales, por lo que los datos derivados de la simulación están en forma de datos numéricos y estadísticas sobre las interacciones entre bots. Por otro lado, todos los actores en la simulación son bots, que no pueden interactuar con usuarios reales. La simulación WW también no puede tener en cuenta cosas como la intención del usuario o el contenido de una conversación determinada, ya que solo se simulan las acciones de enviar mensajes, hacer comentarios, etc.
Según Harman, este proceso de experimentación con limitaciones es similar a como los planificadores urbanos intentan reducir la velocidad en ciertas carreteras colocando “baches”. De manera similar a como un planificador urbano experimentaría creando baches y luego recopilando datos sobre su utilidad, los ingenieros analizaron cómo variaban los mensajes y las interacciones entre bots en su simulador a medida que variaban parámetros y limitaciones. Harman explica que el objetivo es obtener una idea de qué cambios se podrían hacer en la plataforma de Facebook para inhibir el comportamiento dañino sin limitar severamente el comportamiento normal o el flujo libre de tráfico.
Harman también explica que el beneficio de utilizar WW para sus simulaciones es que las acciones que estudian ocurren en la infraestructura real de Facebook, lo que les da una mejor idea de cómo sus cambios propuestos podrían afectar a los usuarios reales de Facebook. Cualquier aplicación de estos hallazgos tendrá que esperar un tiempo, ya que ahora WW y su simulación están solo en la etapa de investigación. Harman y otros investigadores de Facebook no aplicarán aún sus hallazgos a la versión en vivo de Facebook, ya que todavía hay mucho trabajo por hacer. El grupo de investigación necesita asegurarse de que las simulaciones que crean se ajusten adecuadamente al comportamiento humano real.
El principal beneficio de WW, según Harman, es su capacidad para operar a una escala masiva, lo que permite a los investigadores de Facebook verificar las posibles consecuencias de miles de ajustes menores, todos a través de las simulaciones que produce.
En el futuro, los investigadores podrían dejar que los bots simplemente jueguen y experimenten durante un tiempo, para ver qué tipo de interacciones generan por sí mismos, lo que a menudo puede ser algo que los investigadores no anticipan.
“En este momento, el enfoque principal es entrenar a los bots para imitar cosas que sabemos que ocurren en la plataforma. Pero en teoría y en la práctica, los bots pueden hacer cosas que no hemos visto antes”, dijo Harman. “Eso es algo que queremos, porque en última instancia queremos adelantarnos al mal comportamiento en lugar de seguir jugando al catch up”.
Si todo sale bien, Facebook podría comenzar a realizar modificaciones basadas en las simulaciones de WW a finales de 2020.












