思想领袖
谁将保护我们免受AI生成的虚假信息的侵害?

生成式AI在不到一年的时间里已经从零到百。虽然还处于初期阶段,但它已经展现出改变商业的潜力。这一点我们都可以同意。我们在如何遏制其带来的危险方面存在分歧。
为了明确,我是支持创新,并不是一个恐惧主义者。但最近虚假信息的激增——主要是针对当前争议话题的两极分化——已经表明,如果不加以控制,生成式AI可能会对社会造成毁灭性的影响。
我们以前在社交媒体上见过这种情况,但它花了几年时间和艰难的教训才让我们意识到其缺陷。我们已经(假设)学到了些什么。今天的问题是 谁 将帮助遏制生成式AI带来的现实扭曲潮流,以及如何做到这一点?
可预测地,政府开始采取行动。欧洲正在领导这项事业,就像他们在监管科技方面所展示的那样。美国紧随其后,拜登总统于去年十月份发布了一项行政命令。
但是,需要全球村庄共同努力来“让生成式AI保持诚实”。在政府可以提供帮助之前,它需要了解现有方法的局限性。
身份问题变得更加严重
在这个新世界中,真相成为一堆伪装成事实的意见中的针。知道 内容来自谁 比以往任何时候都更重要。
而且,这不像宣布每个社交媒体账户都必须进行身份验证那么简单。对此存在激烈的反对,而且在某些情况下,匿名是合理的,以保护账户持有者。另外,消费最糟糕内容的人并不关心其可信度,也不关心其来源。
尽管有这些警告,身份在应对生成式AI方面的潜在作用被低估了。怀疑者,请听我说。
让我们想象一下,监管或社会良知导致平台为每个账户持有者提供以下选择:
- 验证他们的身份或不验证,
- 公开显示他们的验证身份,或只是标记为“ID验证”
然后,社交媒体受众可以更好地决定谁是可信的。同样重要,如果不是更重要,身份支持问责。平台可以决定采取什么行动来对付连续的“虚假信息者”和生成式AI内容的重复滥用者,即使他们以不同的账户名称出现。
随着生成式AI提高赌注,我相信身份——知道谁发布了什么——是至关重要的。有些人会反对它,身份并不是一个全面的答案。事实上,没有任何解决方案能够满足所有利益相关者的需求。但如果监管要求平台为所有账户提供身份验证,我相信影响将会非常积极。
内容审核难题
内容审核——自动和人工——是对不良内容的最后一道防线。人工审核是一份艰难的工作,存在因接触人类最糟糕的东西而造成的心理伤害风险。它也很昂贵,经常被指责为偏见审查,平台试图减少这种情况。
自动审核的规模超出了人类的能力,无法应对新内容的洪流,但它无法理解背景(例如表情包)和文化细微差别。两种形式的审核都至关重要且必要,但它们只是答案的一部分。
通常听到的、传统的控制生成式AI的处方是:“需要科技领袖、政府和民间社会之间的合作。”当然,但是具体来说是什么?
政府方面,可以推动社交和媒体平台提供身份验证 和 在所有帖子上显著显示它。监管机构还可以为可信度指标铺平道路,以帮助衡量来源是否可信。合作是必要的,以开发通用标准,提供具体的指导和方向,以便私营部门不必猜测。
最后,创建恶意AI输出应该是违法的吗?禁止用于非法活动的内容的立法可以减少有毒内容的数量,并减轻审核员的负担。我不认为监管和法律能够彻底击败虚假信息,但它们在应对威胁方面是必不可少的。
阳光明媚的一面:创新
创新带来的希望使我在这里保持乐观。我们不能指望政客或平台所有者完全保护我们免受AI生成的欺骗。他们留下了一个巨大的空白,这正是激发新技术的灵感,以验证内容和检测伪造。
由于我们现在知道社交媒体的缺点,我们很快意识到生成式AI可能会成为人类的巨大净负面影响,凭借其两极分化和误导的能力。
乐观地看,我认为多方面的方法可以有效地控制内容,首先在源头限制为非法用途而创建的内容。然后,在发布之前,验证拒绝匿名的那些人的身份。接下来,清晰地标记以显示可信度评级和发布者的身份或匿名状态。最后,自动和人工审核可以过滤掉一些最糟糕的内容。我预计新的验证技术很快就会上线。
把所有这些加起来,我们将拥有一个更好的,尽管不完美的解决方案。同时,我们应该提高自己的技能来判断什么是真实的,谁在说真话,谁试图欺骗我们。
