Leaders d’opinion
Comment l’IA de Facebook répand les fausses informations et menace la démocratie

Dan Tunkelang, qui a supervisé la recherche en IA chez LinkedIn, a déclaré : « Le moment où les recommandations ont le pouvoir d’influencer les décisions, elles deviennent une cible pour les spammers, les escrocs et d’autres personnes aux motivations peu nobles. »
C’est le dilemme que traversent les entreprises de médias sociaux comme Facebook. Facebook utilise la rétroaction implicite pour suivre les clics, les vues et les autres comportements mesurables des utilisateurs. Cela est utilisé pour concevoir ce qui est identifié comme un « moteur de recommandation », un système d’IA qui a le pouvoir ultime de décider qui voit quel contenu et quand.
Facebook a optimisé son moteur de recommandation pour maximiser l’engagement des utilisateurs, qui est mesuré par la quantité de temps passé sur la plateforme Facebook. La maximisation du temps prend le pas sur toute autre variable, y compris la qualité ou l’exactitude de ce qui est recommandé.
Le système est conçu pour récompenser les titres sensationnalistes qui engagent les utilisateurs en exploitant les préjugés cognitifs, même si ces titres sont écrits par des trolls russes avec l’intention de diviser la société ou d’influencer les élections politiques.
Comment Facebook utilise l’IA
Il y a un manque de conscience sur la façon dont Facebook utilise l’IA pour décider de ce que ses utilisateurs voient et interagissent. Il faut d’abord comprendre ce qu’est le biais de confirmation. Psychology Today décrit cela comme :
Le biais de confirmation est la tendance à rechercher, interpréter, favoriser et rappeler les informations d’une manière qui confirme ou soutient ses croyances ou valeurs antérieures.
Facebook comprend que les utilisateurs sont plus susceptibles de cliquer sur les actualités qui alimentent la tendance humaine à rechercher un biais de confirmation. Cela pose un précédent dangereux pour la propagation des théories du complot et pour la création de chambres d’écho où les utilisateurs sont nourris exclusivement de ce qu’ils veulent voir, quelle que soit l’exactitude ou l’impact sociétal de ce qu’ils voient.
Une étude du MIT a pu démontrer que les fausses nouvelles sur Twitter se propagent 6 fois plus vite que les vraies histoires.
Cela signifie que Twitter et Facebook peuvent être utilisés comme des armes. Alors que Twitter permet à quiconque de suivre intentionnellement des flux avec des points de vue étroits ou biaisés, Facebook va plus loin. Un utilisateur sur Facebook n’a actuellement aucun moyen de contrôler ou de mesurer ce qu’il voit, ce qui est contrôlé entièrement par le moteur de recommandation de Facebook, la façon dont il mesure l’engagement des utilisateurs et la façon dont il optimise cet engagement.
Facebook tente de façonner et de prédire les désirs de ses utilisateurs. Facebook estime à quel point un utilisateur aimera ou n’aimera pas un article d’actualité qu’il n’a pas encore expérimenté. Pour éviter une perte d’engagement des utilisateurs, Facebook choisit alors de contourner les articles d’actualité qui pourraient réduire le niveau d’engagement et choisit plutôt d’engager l’utilisateur en alimentant les actualités qui alimentent le biais de confirmation, garantissant ainsi plus de clics, de commentaires, de likes et de partages.
Facebook utilise également un filtrage collaboratif automatisé des actions et des opinions historiques des utilisateurs pour associer automatiquement les participants (amis) ayant des opinions similaires. Facebook utilise une fonction d’utilité qui prédit et classe automatiquement et mathématiquement vos préférences pour les éléments que vous souhaitez voir.
Cela fait tomber les utilisateurs dans un trou de lapin, ils sont piégés dans les fausses nouvelles, alimentés par du contenu qui renforce leurs préjugés. Le contenu présenté est inhérentement conçu avec l’objectif d’influencer ce sur quoi vous cliquez. Après tout, si vous croyez au complot selon lequel Bill Gates tente de mettre une puce électronique à la population humaine en utilisant des vaccins, pourquoi Facebook devrait-il vous présenter des preuves contradictoires qui pourraient vous faire vous désengager de la plateforme ? Si vous soutenez un certain candidat politique, pourquoi Facebook devrait-il vous offrir des actualités qui pourraient contredire vos opinions positives sur ce même candidat ?
Comme si cela ne suffisait pas, Facebook engage également ce qui est connu sous le nom de « preuve sociale ». La preuve sociale est le concept selon lequel les gens suivront les actions de la masse. L’idée est que puisque tant d’autres personnes se comportent d’une certaine manière, cela doit être le comportement correct.
Facebook fournit cette preuve sociale dans le contexte des likes, des commentaires ou des partages. Puisque seuls certains amis peuvent voir l’élément de fil d’actualité (à moins qu’ils ne recherchent spécifiquement le fil d’actualité d’un utilisateur), la preuve sociale ne fait que renforcer le biais de confirmation.
Facebook utilise également des bulles de filtrage pour limiter l’exposition à des points de vue contradictoires, contradictoires et/ou contestataires.
Publicités Facebook
Les utilisateurs de Facebook qui ne se doutent de rien peuvent cliquer sur des publicités sans être conscients qu’ils sont présentés avec des publicités. La raison est simple, si une publicité n’est présentée qu’à la première personne qui la voit, seul cet utilisateur verra l’avis de publicité. Si cet utilisateur partage la publicité, tous les amis de sa liste de amis ne voient que le « partage » comme un élément de fil d’actualité, car Facebook supprime intentionnellement l’avis de publicité. Immédiatement, les utilisateurs baissent leur garde, ils sont incapables de faire la différence entre ce qui est une publicité et ce qui aurait apparu organiquement sur leur fil d’actualité.
Partages Facebook
Malheureusement, les choses empirent. Si un utilisateur a 1000 amis qui partagent simultanément du contenu, le moteur de recommandation donnera la priorité au contenu de la minorité qui partage les mêmes opinions, même si celles-ci consistent souvent en théories du complot non prouvées. L’utilisateur aura alors l’illusion que ces éléments de fil d’actualité sont vus par tout le monde. En interagissant avec cet élément de fil d’actualité, ces utilisateurs optimisent les preuves sociales les uns des autres.
Si un utilisateur tente d’éclairer un autre utilisateur sur un élément de fil d’actualité trompeur ou faux, l’acte même de commenter ou d’interagir avec l’élément de fil d’actualité augmente simplement le temps d’engagement de l’utilisateur initial. Cette boucle de rétroaction fait que Facebook renforce l’engagement de cet utilisateur avec des fausses nouvelles supplémentaires.
Cela crée une chambre d’écho, une bulle de filtrage où un utilisateur est formé pour ne croire qu’à ce qu’il voit. La vérité est simplement une illusion.
Gravité de la question
Plus de 10 millions de personnes ont interagi avec un élément de fil d’actualité affirmant que le pape François était en faveur de l’élection de Trump en 2016. Il n’y avait aucune preuve de cela, c’était simplement une fausse histoire de actualité qui provenait de Russie, mais c’était l’actualité la plus partagée sur Facebook dans les trois mois précédant l’élection de 2016.
L’élément de fil d’actualité a été généré par une ferme de trolls russes qui se fait appeler l’« Agence de recherche sur Internet ». Cette même organisation était responsable de la promotion et du partage sur Twitter et Facebook d’articles de provocation raciale, en faveur de la diabolisation du mouvement Black Lives Matter, et de l’armement de fausses actualités répandant de fausses allégations sur des politiciens américains.
Le Comité spécial du renseignement a publié un rapport de 85 pages détaillant les campagnes de mesures actives russes et d’ingérence, dont la majeure partie consistait en la propagation de fausses actualités divisives et de propagande qui visaient à influencer l’élection américaine de 2016.
En avançant dans l’élection de 2020, le problème n’a fait que s’intensifier. En septembre 2020, après un tuyau du FBI, Facebook et Twitter ont suspendu des comptes de médias sociaux pour une organisation de presse du nom de PeaceData, liée aux efforts de propagande de l’État russe.
Malheureusement, fermer des comptes est une solution temporaire et inefficace. Les comptes russes prennent souvent la forme de demandes d’amis, souvent dégoûtés par des femmes avec des profils attirants qui ciblent les hommes, ou avec des comptes d’utilisateurs piratés ayant une histoire de publications régulières. Ces comptes piratés passent lentement à des publications politiques, jusqu’à ce qu’ils soient dominés par de la propagande ou des théories du complot.
Un utilisateur qui ne se doute de rien peut ne pas être conscient que le compte d’un ami a été compromis. Si cet utilisateur est vulnérable aux théories du complot, il peut interagir avec l’élément de fil d’actualité faux, le troll russe qui est souvent un bot, puis fournit une preuve sociale supplémentaire sous la forme de likes ou de commentaires.
Les utilisateurs vulnérables sont souvent ceux qui comprennent le moins la technologie et l’IA. La population de plus de 65 ans, qui est la population la plus susceptible de voter, est également la plus susceptible de propager de fausses actualités, comme le rapporte le New York Times.
Selon l’étude, les utilisateurs de Facebook âgés de 65 ans et plus ont publié sept fois plus d’articles de sites de fausses actualités que les adultes de 29 ans et moins. Un manque de littératie numérique média rend ce groupe non préparé à un fil d’actualité qui ne repose pas sur des faits ou sur l’exactitude, mais exclusivement sur l’engagement des utilisateurs.
Les acteurs malveillants profitent du moteur de recommandation de Facebook qui exploite nos préjugés cognitifs contre nous. Ces mêmes organisations ont optimisé l’abus de l’IA de Facebook pour propager des théories du complot et de la propagande. Des théories du complot qui peuvent sembler innocentes au début sont souvent utilisées comme des entonnoirs pour le suprémacisme blanc, le nationalisme d’extrême droite ou QAnon, une théorie du complot bizarre impliquant Trump qui tente de sauver le monde des pédophiles libéraux, une théorie du complot qui n’a aucune base dans la réalité.
Résumé
Facebook est clairement conscient qu’il y a un problème et a annoncé publiquement une stratégie qui se concentre sur la suppression du contenu qui viole les normes de la communauté Facebook. Le problème est que la suppression de comptes est une mesure temporaire qui est inefficace lorsque les comptes sont générés en masse par des bots, ou que les comptes d’utilisateurs sont piratés en masse. Cela ne résout pas non plus le problème que la majorité des partages sont effectués par des utilisateurs réguliers qui ne sont pas conscients qu’ils propagent des informations erronées.
L’ajout d’étiquettes d’avertissement ne fait que renforcer les théories du complot selon lesquelles les géants des médias sociaux sont biaisés contre les conservateurs, qui sont les plus susceptibles aux fausses actualités.
La solution doit être un nouveau moteur de recommandation qui mesure non seulement l’engagement des utilisateurs, mais qui est optimisé pour le bonheur des utilisateurs en leur fournissant la vérité et en promouvant une conscience de soi accrue.
Entre-temps, Facebook devrait suivre le chemin que Twitter a pris pour interdire les publicités politiques.
Enfin, une question importante doit être posée. Si les gens n’ont plus le choix sur les actualités qu’ils voient, quand cela cesse-t-il d’être une recommandation et quand cela devient-il un contrôle de l’esprit ?
Lecture recommandée :
Campagnes de mesures actives russes et d’ingérence – Rapport du Comité spécial du renseignement du Sénat des États-Unis.
Le document choquant prédisant la fin de la démocratie – Par Rick Shenkman, fondateur du History News Network de l’Université George Washington.
Les personnes âgées partagent des fausses actualités sur Facebook plus – Par le New York Times












