通用人工智能
阿西莫夫的三个机器人定律如何影响人工智能

机器人三定律在科幻世界中是标志性的,并已成为人工智能和机器人社区中一个符号,表明设计一个完善的系统有多么困难。
为了充分理解这些三定律的重要性,我们必须首先了解提出这些定律的天才——已故科幻作家艾萨克·阿西莫夫。然后,我们必须了解如何适应这些定律并使其演变以保护人类。
艾萨克·阿西莫夫 – 天才的崛起
艾萨克·阿西莫夫于1920年1月2日出生于俄罗斯,三岁时移民到美国。他在纽约布鲁克林长大,1939年毕业于哥伦比亚大学。他被认为是一位才华横溢、多产的作家,专注于科学和科幻。他的职业生涯中,他写过和编辑过500多本书。
阿西莫夫深受一些科幻界最具代表性的作家的启发。他在费城海军造船厂开始了他的职业生涯,在那里他遇到了两位同事,他们后来成为了科幻史上最成功的作家:L. Sprague de Camp 和 Robert A. Heinlein。
L. Sprague de Camp是一位获奖作家,写过100多本书,是1930年代和1940年代科幻界的重要人物。他的一些最著名的作品包括“Darkness Fall”(1939年)、“The Wheels of If”(1940年)、“A Gun for Dinosaur”(1956年)、“Aristotle and the Gun”(1958年)和“The Glory That Was”(1960年)。
罗伯特·A·海因莱因可能是他职业生涯巅峰时期世界上最受欢迎的科幻作家。与艾萨克·阿西莫夫和阿瑟·C·克拉克一起,他被认为是科幻“三巨头”之一。罗伯特·A·海因莱因的一些最著名的作品包括“Farnham’s Freehold”(1964年)和“To Sail Beyond the Sunset”(1987年)。现在的年轻一代可能更熟悉他小说“星舰战将”(1959年)的电影改编版。
被这些未来主义巨匠所包围,激发了艾萨克·阿西莫夫开始他的多产写作生涯。阿西莫夫在科学界也备受尊敬,经常被邀请作为公共演讲者,谈论科学。
机器人三定律
艾萨克·阿西莫夫是第一个在1941年发表的短篇小说“Liar!”中使用“机器人学”一词的人。
不久之后,他1942年的短篇小说“Runaround”向世界介绍了他的机器人三定律。这些定律是:
1. 机器人不得伤害人类,或通过不作为而让人类受到伤害。
2. 机器人必须遵守人类给予的命令,除非这些命令与第一定律相冲突。
3. 机器人必须保护自己的存在,前提是这种保护不会与第一或第二定律相冲突。
这些定律的设计目的是提供有趣的情节,并且阿西莫夫继续创作了一系列37个科幻短篇和六部以机器人为特色的小说。
其中一个短篇集名为“我,机器人”,后来在2004年被改编成电影。由威尔·史密斯主演的“我,机器人”电影背景设定在2035年的反乌托邦世界,电影中出现了高度智能的公务机器人,这些机器人遵循机器人三定律。与故事一样,这部电影很快成为一个寓言,说明编程可能会出错,并且编程任何高级人工智能都涉及很高的风险。
世界现在已经赶上以前的科幻,我们现在正在设计人工智能,这在某些方面比艾萨克·阿西莫夫曾经想象的任何东西都更先进,同时也更加有限。
机器人三定律在人工通用智能(AGI)讨论中经常被引用。我们将快速探讨什么是AGI,以及机器人三定律如何演变以避免未来可能出现的问题。
人工通用智能(AGI)
目前,我们在日常生活中遇到的大多数人工智能类型都被量化为“狭义人工智能”。这是一个非常特定和狭隘的实用函数的人工智能。例如,自主车辆可以在街道上行驶,但由于其“狭隘”的局限性,人工智能很难完成其他任务。狭义人工智能的另一个例子是图像识别系统,可以轻松识别和标记数据库中的图像,但很难适应其他任务。
人工通用智能(AGI)通常被称为“AGI”,是一种类似于人类的智能,可以快速学习、适应、转向和在现实世界中发挥作用。这是一种不狭隘的智能,可以适应任何情况并学习如何处理现实世界的问题。
应该说明,虽然人工智能正在以指数级的速度发展,但我们尚未达到AGI。我们何时会达到AGI存在争议,每个人对时间表都有不同的答案。我个人赞同雷·库兹韦尔的观点,他是发明家、未来学家和《奇点临近》一书的作者,他认为我们将在2029年之前实现AGI。实现AGI。
2029年的时间表是一个滴答作响的时钟,我们必须学会将一种规则书硬编码到人工智能中,这种规则书不仅类似于三定律,而且更先进,能够实际上避免人类和机器人之间的现实冲突。
现代机器人定律
虽然机器人三定律在文学中是非常好的,但它们在复杂性方面明显缺乏,无法严肃地编程到机器人中。这是短篇故事和小说背后的情节。三定律之间的冲突,或者至少是对三定律的解释,导致机器人故障、对人类进行报复或其他关键情节。
当前定律的主要问题是始终遵循人类指令和始终保护自己的道德编程可能会相互冲突。毕竟,机器人是否被允许在被主人虐待时自卫?
什么样的故障保护机制需要被编程?我们如何指示机器人无论如何都必须关闭?如果机器人正在从虐待中拯救一个家庭主妇,而虐待她的丈夫指示机器人关闭,那么机器人应该自动关闭吗?
谁应该给机器人指令?随着能够从全球各地识别和定位目标的自主武器,机器人是否应该能够拒绝消灭目标的命令,如果它识别出目标是一个孩子?
换句话说,如果机器人由一个精神病人拥有和控制,机器人是否可以拒绝违背道德的命令?问题是无数的,答案对于任何个人来说都太难以回答。这就是为什么像生命的未来研究所这样的组织如此重要,在真正的AGI出现之前,讨论这些道德困境的时间是现在。








