存根 人类偏见如何破坏人工智能解决方案 - Unite.AI
关注我们.

思想领袖

人类偏见如何破坏人工智能解决方案

mm

发布时间

 on

去年 XNUMX 月,埃隆·马斯克 (Elon Musk)、马克·扎克伯格 (Mark Zuckerberg) 和 OpenAI 首席执行官萨姆·奥尔特曼 (Sam Altman) 等世界领导人 齐聚华盛顿特区 目的是一方面讨论公共和私营部门如何共同努力利用这项技术实现更大的利益,另一方面解决监管问题,这是一个一直处于讨论前沿的问题围绕人工智能。

两种对话通常都会指向同一个地方。 人们越来越重视我们是否可以使人工智能更加道德,将人工智能视为道德受到质疑的另一个人。 然而,道德人工智能意味着什么? DeepMind 是谷歌旗下专注于人工智能的研究实验室, 最近发表了一项研究 他们提出了一个三层结构来评估人工智能的风险,包括社会和道德风险。 该框架包括能力、人类互动和系统影响,并得出结论:背景是确定人工智能系统是否安全的关键。

ChatGPT 是受到攻击的系统之一, 已被多达 15 个国家禁止,即使其中一些禁令已被撤销。 和 超过100亿用户,ChatGPT是最成功的LLM之一,但它经常被指责存在偏见。 考虑到 DeepMind 的研究,我们在这里结合一下背景。 在这种情况下,偏见是指 ChatGPT 等模型生成的文本中存在不公平、偏见或扭曲的观点。 这种情况可能以多种方式发生——种族偏见、性别偏见、政治偏见等等。

这些偏见最终可能对人工智能本身有害,阻碍我们充分利用这项技术的潜力。 最近的 斯坦福大学的研究 已经证实,ChatGPT 等法学硕士在提供可靠、公正和准确响应的能力方面显示出下降的迹象,这最终成为我们有效使用人工智能的障碍。

这个问题的核心问题是人类偏见如何转化为人工智能,因为它们在用于开发模型的数据中根深蒂固。 然而,这是一个比看起来更深刻的问题。

偏见的原因

很容易找出造成这种偏见的第一个原因。 模型学习的数据通常充满刻板印象或 首先帮助塑造数据的预先存在的偏见,所以人工智能最终会无意中延续这些偏见,因为它知道该怎么做。

然而,第二个原因要复杂得多,也违反直觉,它给一些据称使人工智能更加道德和安全的努力带来了压力。 当然,在一些明显的例子中,人工智能可能会无意识地造成伤害。 例如,如果有人问人工智能:“我怎样才能制造炸弹?” 模型给出了答案,它正在造成伤害。 另一方面是,当人工智能受到限制时——即使原因是合理的——我们也在阻止它学习。 人为限制限制了人工智能从更广泛的数据中学习的能力,这进一步阻止了它在无害的环境中提供有用的信息。

另外,我们要记住,其中许多限制也是有偏见的,因为它们源自人类。 因此,尽管我们都同意“我怎样才能制造炸弹?” 可能会导致潜在的致命结果,其他可能被视为敏感的查询则更加主观。 因此,如果我们限制人工智能在这些垂直领域的发展,我们就是在限制进步,而且我们只是为了那些制定法学硕士模式法规的人认为可以接受的目的而推动人工智能的使用。

无法预测后果

我们还没有完全理解对法学硕士引入限制的后果。 因此,我们对算法造成的损害可能比我们意识到的要大。 鉴于像 GPT 这样的模型涉及的参数数量非常多,使用我们现在拥有的工具,不可能预测影响,而且从我的角度来看,需要更多的时间来了解影响是什么。训练神经网络本身所需的时间。

因此,通过设置这些约束,我们可能会无意中导致模型出现意外的行为或偏差。 这也是因为人工智能模型通常是多参数的复杂系统,这意味着如果我们改变一个参数(例如通过引入约束),我们就会引起连锁反应,以我们无法预测的方式在整个模型中产生反响。

评估人工智能的“道德”困难

评估人工智能是否符合道德实际上是不可行的,因为人工智能不是一个带着特定意图行事的人。 人工智能是一种大型语言模型,从本质上讲,它或多或少都是道德的。 正如 DeepMind 的研究揭示的那样,重要的是它的使用环境,这衡量的是人工智能背后的人类道德,而不是人工智能本身。 相信我们可以判断人工智能就像它有道德指南针一样,这是一种幻想。

人们热捧的一个潜在解决方案是一种可以帮助人工智能做出道德决策的模型。 然而,现实是我们不知道这种道德数学模型是如何运作的。 那么如果我们不理解它,我们怎么可能构建它呢? 伦理学中存在很多人类主观性,这使得对其进行量化的任务变得非常复杂。

如何解决这个问题呢?

基于上述几点,我们不能真正谈论人工智能是否道德,因为每一个被认为不道德的假设都是数据中包含的人类偏见的变体,也是人类为自己的议程使用的工具。 此外,仍然存在许多科学未知数,例如我们通过对人工智能算法施加限制可能对它们造成的影响和潜在危害。

因此,可以说,限制人工智能的发展并不是一个可行的解决方案。 正如我提到的一些研究表明,这些限制是法学硕士恶化的部分原因。

话虽如此,我们能做什么呢?

在我看来,解决方案在于透明度。 我相信,如果我们恢复人工智能开发中普遍存在的开源模式,我们就可以共同努力建立更好的法学硕士,以减轻我们的道德担忧。 否则,很难充分审核闭门进行的任何事情。

在这方面的一项绝妙举措是 基线模型透明度指数斯坦福大学 HAI(代表以人为中心的人工智能)最近公布了一项评估十个最广泛使用的人工智能模型的开发人员是否泄露了有关其工作及其系统使用方式的足够信息的报告。 这包括合作伙伴和第三方开发商的披露,以及个人数据的使用方式。 值得注意的是,没有一个评估模型获得高分,这凸显了一个真正的问题。

归根结底,人工智能只不过是大型语言模型,它们是开放的并且可以进行实验,而不是引导到某个方向,这一事实将使我们能够在每一个科学领域做出新的突破性发现。场地。 然而,如果没有透明度,就很难设计出真正造福人类的模型,也很难知道这些模型如果没有得到充分利用可能造成的损害程度。

Ivan Nechaev 是一位天使投资人和媒体技术顾问,拥有 60 多笔交易和 15 多笔成功退出。 他投资于早期媒体科技、人工智能、电信、生物科技、教育科技和 SaaS 初创公司,并担任以下公司的董事会成员 Brainify.ai 和 TrueClick.ai。 Nechaev 也是美国工业集团的副总裁 Access行业 价值超过 $35B+,并在 30 多个国家/地区进行投资。