存根 Facebook 的人工智能如何传播错误信息并威胁民主 - Unite.AI
关注我们.

思想领袖

Facebook 的人工智能如何传播错误信息并威胁民主

mm
更新 on

LinkedIn 人工智能研究负责人 Dan Tunkelang 表示:“当推荐有能力影响决策时,它们就会成为垃圾邮件发送者、诈骗者和其他动机不那么高尚的人的目标。”

这就是 Facebook 等社交媒体公司正在经历的困境。 脸书使用 隐式反馈 跟踪点击次数、浏览次数和其他可衡量的用户行为。 这被用来设计所谓的“推荐引擎”,这是一个人工智能系统,它拥有决定谁在何时看到什么内容的最终权力。

Facebook 优化了他们的推荐引擎,以最大限度地提高用户参与度,这是通过花在 Facebook 平台上的时间来衡量的。 时间最大化优先于任何其他变量,包括所推荐内容的质量或准确性。

该系统旨在奖励通过利用认知偏见吸引用户的耸人听闻的头条新闻,即使这些头条新闻恰好是俄罗斯巨魔撰写的,其目的是分裂社会或影响政治选举。

Facebook 如何使用人工智能

人们对 Facebook 如何使用人工智能来决定用户看到的内容和互动的内容缺乏认识。 首先必须了解什么是确认偏差。 《今日心理学》描述了 这作为:

确认偏差是一种以确认或支持一个人先前的信念或价值观的方式搜索、解释、支持和回忆信息的倾向。

Facebook 明白,用户更有可能点击新闻,这助长了人类寻求确认偏见的倾向。 这为阴谋论的传播和创建回音室开了一个危险的先例,用户只被灌输他们想看到的内容,而不管所看到的内容的准确性或社会影响如何。

A 麻省理工学院的研究 能够证明 Twitter 上假新闻的传播速度是真实新闻的 6 倍。

这意味着 Twitter 和 Facebook 都可以被武器化。 虽然 Twitter 让任何人都可以有意 遵循 Facebook 更进一步。 Facebook 上的用户目前没有零方法来控制或衡量所看到的内容,这完全由 Facebook 的推荐引擎、它如何衡量用户参与度以及如何针对相同的用户参与度进行优化控制。

Facebook 试图塑造和预测用户的需求。 Facebook 估计用户对尚未体验过的新闻项目的喜欢或不喜欢程度。 为了避免用户参与度的损失,Facebook 选择绕过可能会降低参与度的新闻项目,而是选择通过提供会带来确认偏差的新闻项目来吸引用户,从而确保更多的点击、评论、点赞和关注。分享。

Facebook 还使用历史用户操作和意见的自动协同过滤来自动匹配具有相似意见的参与者(朋友)。 Facebook 使用一种实用函数,可以自动以数学方式预测您对想要查看的项目的偏好并对其进行排名。

这会导致用户掉进兔子洞,他们被困在假新闻中,被灌输的内容强化了他们的偏见。 所呈现的内容本质上是为了影响您点击的内容而设计的。 毕竟,如果您相信比尔·盖茨试图通过疫苗对人类进行微芯片植入的阴谋,那么 Facebook 为何要向您提供可能导致您脱离该平台的相互矛盾的证据呢? 如果您支持某个政治候选人,Facebook 为什么要提供可能与您对该候选人的积极看法相矛盾的新闻?

好像这还不够,Facebook 还采用了所谓的“社会证明”。 社会证明是人们会追随大众行为的概念。 这个想法是,既然很多人都以某种方式行事,那么它一定是正确的行为。

Facebook 在点赞、评论或分享的背景下提供这种社交证明。 由于只有某些朋友可能会看到新闻源项目(除非他们专门搜索用户的新闻源),因此社交证明只会强化确认偏差。

脸书也使用 过滤气泡 限制接触冲突、矛盾和/或具有挑战性的观点。

Facebook广告

毫无戒心的 Facebook 用户可能会 在不知不觉中点击广告 他们正在看到广告。 原因很简单,如果有广告,只有第一个看到广告的人才会看到广告免责声明。 如果该用户分享该广告,其朋友列表中的每个人都会将“分享”视为新闻源项目,因为 Facebook 故意删除了广告免责声明。 用户立即放松警惕,他们无法区分什么是广告,什么是自然出现在他们的新闻源上的广告。

Facebook分享

不幸的是,事情变得更糟。 如果用户有 1000 个朋友同时分享内容,推荐引擎会优先考虑少数持有相同观点的朋友的内容,即使这些内容通常包含未经证实的阴谋论。 然后,用户会产生这样的错觉:每个人都可以看到这些新闻源项目。 通过参与此新闻源,这些用户正在优化彼此的社交证明。

如果用户试图向其他用户介绍误导性或虚假项目,则评论或参与新闻源的行为只会增加原始用户的参与时间。 这种反馈循环会导致 Facebook 通过更多虚假新闻加强与该用户的互动。

这会产生回音室,即一个过滤气泡,用户被训练只相信他们所看到的。 真理只是一种幻觉。

问题的严重性

超过10万人 参与新闻源 声称弗朗西斯教皇在2016年支持特朗普当选。没有任何证据表明这一点,这只是来自俄罗斯的假新闻报道,但这是Facebook上三个月来分享次数最多的新闻报道直到2016年大选。

这条新闻是由一个自称“互联网研究机构”的俄罗斯巨魔农场制作的。 这个组织还负责在 Twitter 和 Facebook 上宣传和分享种族诱饵文章,支持妖魔化“黑人生命也是命”,并为散布针对美国政客的虚假言论的虚假新闻提供武器。

情报特别委员会发布了一份 85页面报告 详细介绍了俄罗斯的积极措施活动和干预,其中大部分涉及传播分裂性假新闻和宣传,其唯一目的是影响 2016 年美国大选。

快进到 2020 年大选,问题变得更加严重。 2020 年 XNUMX 月,FBI 举报 Facebook 和 Twitter 后 终止社交媒体帐户 一家名为 PeaceData 的新闻机构,该机构与俄罗斯的国家宣传工作有关。

不幸的是,关闭帐户是一种临时且无效的解决方案。 俄罗斯帐户通常采用好友请求的形式,通常对那些针对男性的具有吸引力的个人资料的女性感到厌恶,或者对具有定期发帖历史的被劫持的用户帐户感到厌恶。 这些被劫持的账户慢慢转向更多的政治职位,直到它们被宣传或阴谋论所主导。

毫无戒心的用户可能不知道朋友的帐户已被盗用。 如果该用户容易受到阴谋论的影响,他们可能会参与虚假新闻提要项目,俄罗斯巨魔通常是机器人,然后通过点赞或评论的形式提供额外的社会证据。

弱势用户通常是那些最不了解技术和人工智能如何运作的人。 65岁以上的人群是最有可能投票的人群,也是最有可能传播假新闻的人群 据纽约时报报道.

根据这项研究,65 岁及以上的 Facebook 用户在假新闻网站上发布的文章数量是 29 岁及以下成年人的七倍。 由于缺乏数字媒体素养,这个年龄段的人对不以事实或准确性为基础、而完全以用户参与度为基础的新闻源毫无准备。

不良行为者正在利用 Facebook 的推荐引擎,该引擎利用了我们对我们的认知偏见。 这些组织还优化了 Facebook 人工智能的滥用,以传播阴谋论和宣传。 阴谋论乍一看似乎很无辜,但经常被用作白人至上主义、极右翼民族主义或极端右翼民族主义的渠道。 QAnon 这是一个离奇的阴谋论,涉及特朗普试图从自由派恋童癖者手中拯救世界,这一阴谋在现实中毫无依据。

总结

Facebook 显然意识到存在问题,并且已公开 宣布了一项战略 重点是删除违反 Facebook 社区标准的内容。 问题是,删除账户只是一种临时的权宜之计,当账户被机器人批量生成,或者用户账户被大规模黑客入侵时,这种措施就无效了。 它还没有解决大多数共享是由普通用户进行的问题,他们不知道自己正在传播错误信息。

添加警告标签只会强化阴谋论,即社交媒体巨头对保守派存在偏见,而保守派是最重要的。 容易受到假新闻的影响.

该解决方案需要是一个新的推荐引擎,它不仅可以衡量用户参与度,而且可以通过提供真相和促进增强的自我意识来优化用户的幸福感。

与此同时,Facebook 应该走这样的道路: Twitter 采取措施禁止政治广告.

最后,需要问一个重要的问题。 如果人们不再对他们看到的新闻有选择,那么它什么时候不再是推荐,什么时候它会成为精神控制?

推荐阅读:

俄罗斯积极措施运动和干预 – 美国参议院情报特别委员会的报告。

预测民主终结的令人震惊的论文  - 通过 里克·申克曼(Rick Shenkman),乔治·华盛顿大学历史新闻网创始人。

老年人在 Facebook 上分享假新闻 ——纽约时报

Unite.AI 创始合伙人 & 会员 福布斯技术委员会, 安托万是一个 未来学家 他对人工智能和机器人技术的未来充满热情。

他也是 证券,一个专注于投资颠覆性技术的网站。