思想领袖
Facebook的人工智能如何传播错误信息并威胁民主

Dan Tunkelang曾在LinkedIn监督人工智能研究,他表示:“当推荐有影响决策的力量时,它们就会成为垃圾邮件发送者、骗子和其他动机不纯的人的目标。”
这是社交媒体公司如Facebook正在经历的困境。Facebook使用隐式反馈来跟踪点击、查看和其他可衡量的用户行为。这用于设计所谓的“推荐引擎”,一种人工智能系统,它有最终决定谁看到什么内容和何时看到的权力。
Facebook已经优化了其推荐引擎,以最大化用户参与度,这是通过用户在Facebook平台上花费的时间来衡量的。时间的最大化优先于其他任何变量,包括所推荐内容的质量或准确性。
该系统旨在奖励耸人听闻的标题,这些标题通过利用认知偏见来吸引用户,即使这些标题是由俄罗斯网络喷子撰写的,目的是为了分裂社会或影响政治选举。
Facebook如何使用人工智能
人们对Facebook如何使用人工智能来决定其用户看到和与之交互的内容缺乏了解。首先,必须了解什么是确认偏见。心理学今天将其描述为:
确认偏见是指人们倾向于寻找、解释、偏爱和回忆信息的方式,以确认或支持他们先前的信念或价值观。
Facebook了解用户更有可能点击符合人类寻求确认偏见倾向的新闻。这为传播阴谋论和创建回音室创造了危险的先例,在回音室中,用户被喂以他们想要看到的内容,无论其准确性或社会影响如何。
麻省理工学院的一项研究表明,Twitter上的虚假新闻传播速度是真实新闻的6倍。
这意味着Twitter和Facebook都可以被用作武器。虽然Twitter允许任何人故意关注具有狭隘或偏见观点的内容,但Facebook更进一步。Facebook上的用户目前没有任何方式来控制或衡量他们看到的内容,这完全由Facebook的推荐引擎、其衡量用户参与度的方式以及其优化用户参与度的方式来控制。
Facebook试图塑造和预测其用户的欲望。Facebook估计用户将喜欢或不喜欢尚未经历的新闻项目的程度。为了避免用户参与度的损失,Facebook选择绕过可能降低参与度的新闻项目,而是通过喂给用户符合确认偏见的新闻项目来吸引用户,从而确保更多的点击、评论、喜欢和分享。
Facebook还使用历史用户行为和意见的自动协同过滤来自动匹配具有相似意见的参与者(朋友)。Facebook使用一个实用函数,自动并数学地预测和排名您想要看到的项目。
这导致用户陷入兔子洞,他们被困在虚假新闻中,被喂以强化他们偏见的内容。呈现的内容本质上是为了影响您点击的内容而设计的。毕竟,如果您相信比尔·盖茨试图通过使用疫苗来微芯片化人类的阴谋论,为什么Facebook要向您呈现相反的证据,这可能会导致您脱离该平台?如果您支持某位政治候选人,为什么Facebook要提供可能与您对该候选人的积极看法相矛盾的新闻?
如果这还不够,Facebook还使用所谓的“社会证明”。社会证明是指人们会跟随大众的行动。其理念是,既然很多其他人表现出某种行为,那么这种行为一定是正确的。
Facebook在点赞、评论或分享的背景下提供这种社会证明。由于只有某些朋友可能会看到新闻源项目(除非他们专门搜索用户的新闻源),社会证明只是强化了确认偏见。
Facebook还使用过滤气泡来限制对相互冲突、矛盾和具有挑战性的观点的接触。
Facebook广告
不知不觉中,Facebook用户可能会点击广告,而不知道他们正在被呈现广告。原因很简单,如果只有一个人看到广告,那么只有第一个看到广告的人才能看到广告免责声明。如果该用户分享广告,那么他们的朋友列表中的每个人都只会看到“分享”作为新闻源项目,因为Facebook故意删除了广告免责声明。立即,用户放松了警惕,他们无法区分什么是广告,什么是自然出现在他们的新闻源中的内容。
Facebook分享
不幸的是,情况变得更糟。如果一个用户有1000个朋友同时分享内容,推荐引擎将优先考虑少数持有相同观点的内容,即使这些内容经常由未经证实的阴谋论组成。然后,用户会认为这些新闻源项目被所有人看到。通过与这些新闻源项目交互,这些用户正在优化彼此的社会证明。
如果用户试图让另一个用户了解误导性或虚假项目,用户与新闻源项目交互的行为只会增加原始用户的参与时间。这种反馈循环导致Facebook强化该用户与更多虚假新闻的交互。
这会产生回音室,一个过滤气泡,用户被训练只相信他们看到的内容。真相只是一个幻觉。
问题的严重性
超过1000万人参与了一个新闻源,该新闻源声称教皇弗朗西斯在2016年支持特朗普的选举。没有任何证据支持这一说法,它只是俄罗斯的一个虚假新闻故事,但这却是Facebook在2016年大选前三个月中最常分享的新闻故事。
新闻项目是由俄罗斯网络喷子农场生成的,称为“互联网研究机构”。同一组织还负责在Twitter和Facebook上推广和分享煽动种族主义的文章,妖魔化黑人的生命至上运动,并传播关于美国政客的虚假新闻项目。
参议院情报特别委员会发布了一份85页的报告,详细介绍了俄罗斯的积极措施活动和干预,报告的大部分内容都涉及传播有分裂性的虚假新闻和宣传,这些宣传的唯一目的是影响2016年的美国大选。
快进到2020年的选举,问题变得更加严重。在2020年9月,经过FBI的提示,Facebook和Twitter终止了与俄罗斯国家宣传工作相关的新闻机构PeaceData的社交媒体账户。
不幸的是,关闭账户是一个暂时的、无效的解决方案。俄罗斯账户通常以好友请求的形式出现,通常是由具有吸引力资料的女性或被黑客攻击的用户账户组成,这些账户最初发布正常的帖子,后来逐渐转向政治帖子,直到被宣传或阴谋论主导。
一个毫无戒备的用户可能不知道朋友的账户已经被泄露。如果该用户容易受到阴谋论的影响,他们可能会参与虚假的新闻源项目,而俄罗斯网络喷子通常是一个机器人,它会通过点赞或评论的形式提供额外的社会证明。
容易受到攻击的用户通常是那些最不了解技术和人工智能工作原理的人。65岁以上的人口是最有可能投票的群体,也是最有可能传播虚假新闻的群体,正如纽约时报报道的那样。
根据研究,Facebook用户年龄65岁及以上的人发布来自虚假新闻网站的文章数量是29岁及以下成人的7倍。数字媒体素养的缺乏使这一年龄段的人们无法应对一个不以事实或准确性为基础的新闻源,而是以用户参与度为基础。
坏人正在利用Facebook的推荐引擎,这种引擎利用我们的认知偏见对付我们。这些组织已经优化了对Facebook的人工智能的滥用,以传播阴谋论和宣传。看似无害的阴谋论通常被用作白人至上主义、极右翼民族主义或QAnon的渠道,QAnon是一种关于特朗普试图从自由派恋童癖者手中拯救世界的奇怪阴谋论,这种阴谋论完全没有事实依据。
总结
Facebook显然知道存在问题,并且已经公开宣布了一项策略,该策略专注于删除违反Facebook社区标准的内容。问题在于删除账户是一个暂时的、无效的解决方案,当账户由机器人批量生成或大量黑客攻击用户账户时,这种解决方案无效。它也没有解决大多数分享都是由不知道自己正在传播错误信息的普通用户完成的问题。
添加警告标签只会强化这样一种阴谋论,即社交媒体巨头偏袒保守派,他们是最容易受到虚假新闻影响的人。
解决方案需要是一个新的推荐引擎,它不仅衡量用户参与度,还优化用户幸福度,通过提供真相和促进增强的自我意识来实现。
与此同时,Facebook应该遵循Twitter禁止政治广告的做法。
最后,需要问一个重要的问题。如果人们不再有选择看到什么新闻,那么当它不再被视为推荐,而被视为思想控制的时候,又会是什么时候呢?
推荐阅读:
俄罗斯积极措施活动和干预 – 美国参议院情报特别委员会报告。
预测民主终结的令人震惊的论文 – 由里克·申克曼,乔治·华盛顿大学历史新闻网络的创始人撰写。
老年人在Facebook上分享更多虚假新闻 – 纽约时报。












