talon Facebook utilise des bots et des simulations pour essayer de contrer les mauvais comportements des utilisateurs - Unite.AI
Suivez nous sur

Intelligence artificielle

Facebook utilise des bots et des simulations pour essayer de contrer les mauvais comportements des utilisateurs

mm
Le kit de préparation mis à jour on

Facebook a conçu une nouvelle IA destinée à mieux détecter les comportements nuisibles, préjudiciables et illégaux. Comme le rapporte The Verge, les chercheurs du département AI de Facebook à Londres ont créé un simulateur Facebook basé sur l'IA appelé "WW", qui est utilisé pour simuler le comportement des escrocs, des marchands de produits illégaux, des spammeurs et d'autres acteurs malveillants sur une version simulée de Facebook lui-même.

Le simulateur Facebook dit « WW », tirant son nom d'une troncature de « WWW », a été révélé par Facebook dans un article publié en avril de cette année. WW est une version clonée et confinée de Facebook destinée à faciliter le test de divers outils et algorithmes Facebook.

La société vient de divulguer plus de détails concernant certaines de ses utilisations pour WW, dont l'une est la simulation de mauvais acteurs via l'IA. En utilisant un certain nombre de des bots pour simuler le comportement comme l'escroquerie, le spam, le harcèlement et plus encore, les chercheurs espèrent pouvoir mieux détecter et contrer les comportements nuisibles des utilisateurs.

Selon l'ingénieur Facebook Mark Harman, cité par The Verge, il est prévu que WW sera un outil précieux pour freiner divers comportements nuisibles sur Facebook. Par exemple, Harman pense que les simulations peuvent être utilisées pour concevoir de meilleures méthodes de détection des escrocs.

Les ingénieurs de Facebook ont ​​imité le comportement des vrais escrocs de Facebook en créant deux groupes de bots : un groupe de cibles et un groupe d'escrocs. Les escrocs chassent souvent à travers des réseaux d'amis, explorant les amis des utilisateurs, afin de trouver une cible potentielle. Ce comportement a été imité par les robots escrocs alors que les ingénieurs expérimentaient différentes méthodes pour empêcher le robot innocent d'être victime d'une arnaque. Les tactiques qu'ils ont expérimentées incluaient de nombreuses contraintes telles que la limitation du nombre de messages privés qu'un bot pouvait envoyer chaque minute.

Le Facebook simulé diffère de la réalité de plusieurs façons. D'une part, la simulation de Facebook n'inclut en fait aucun élément visuel, donc les données dérivées de la simulation se présentent toutes sous la forme de données numériques et de statistiques sur les interactions entre les bots. D'autre part, tous les acteurs de la simulation sont des bots, qui ne sont pas capables d'interagir avec de vrais utilisateurs. La simulation WW ne peut pas non plus prendre en compte des éléments tels que l'intention de l'utilisateur ou le contenu d'une conversation donnée, car seules les actions d'envoi de messages, de commentaires, etc. sont simulées.

Selon Harman, ce processus d'expérimentation des contraintes s'apparente aux urbanistes qui tentent de réduire la vitesse sur certaines routes en installant des « dos d'âne ». Semblable à la façon dont un urbaniste expérimenterait la création de ralentisseurs puis la collecte de données sur leur utilité, les ingénieurs ont analysé la façon dont les messages et les interactions entre les bots variaient dans leur simulateur en fonction des paramètres et des contraintes. Harman explique que l'objectif est d'avoir une idée des changements qui pourraient être apportés à la plate-forme de Facebook pour inhiber les comportements nuisibles sans limiter sévèrement le comportement normal ou la libre circulation du trafic.

Harman explique également que l'avantage d'utiliser WW pour leurs simulations est que les actions qu'ils étudient se produisent sur une véritable infrastructure Facebook, ce qui leur donne une bien meilleure idée de l'impact que les modifications proposées pourraient avoir sur les vrais utilisateurs de Facebook. Toute application de ces découvertes devra attendre un certain temps, car WW et sa simulation n'en sont qu'au stade de la recherche. Harman et d'autres chercheurs de Facebook n'appliqueront pas encore leurs découvertes à la version en direct de Facebook, car il reste encore beaucoup de travail à faire. Le groupe de recherche doit s'assurer que les simulations qu'ils créent correspondent adéquatement au comportement humain réel.

Le principal avantage de WW, selon Harman, est sa capacité à fonctionner à grande échelle, permettant aux chercheurs de Facebook de vérifier les conséquences potentielles de milliers de modifications mineures différentes, tout au long des simulations qu'il produit.

À l'avenir, les chercheurs pourraient laisser les bots jouer et expérimenter pendant un certain temps, pour voir quels types d'interactions ils proposent par eux-mêmes, ce qui peut souvent être quelque chose que les chercheurs n'anticipent même pas.

"Pour le moment, l'objectif principal est de former les bots pour imiter les choses que nous savons se produire sur la plate-forme. Mais en théorie et en pratique, les bots peuvent faire des choses que nous n'ont pas Déjà vu," dit Harman. "C'est en fait quelque chose que nous voulons, car nous voulons finalement devancer les mauvais comportements plutôt que de continuellement rattraper leur retard."

Si tout se passe bien, Facebook pourrait commencer à apporter des modifications basées sur les simulations de WW d'ici la fin de 2020.

Blogueur et programmeur spécialisé dans Machine Learning ainsi que L'apprentissage en profondeur les sujets. Daniel espère aider les autres à utiliser le pouvoir de l'IA pour le bien social.