存根 查尔斯·J·西蒙 (Charles J. Simon),《计算机会反抗吗?》作者- 访谈系列 - Unite.AI
关注我们.

面试

查尔斯·J·西蒙 (Charles J. Simon),《计算机会反抗吗?》作者– 访谈系列

mm
更新 on

Charles J. Simon,BSEE,MSCS,全国公认的企业家、软件开发人员和经理。 Simon 先生拥有广泛的管理和技术专业知识,并拥有电气工程和计算机科学学位,拥有多年的计算机行业经验,包括在人工智能和 CAD(两代 CAD)领域的开创性工作。

他还是《计算机将起义》一书的作者,该书深入探讨了通用人工智能 (AGI) 的未来可能性。

最初是什么吸引您对 AI,特别是 AGI 感兴趣?

我一直对“机器能思考吗?”这个问题着迷。 自从我第一次阅读艾伦·图灵 1950 年以这个问题开头的开创性论文以来。 到目前为止,答案显然是“不”,但没有科学理由说明为什么不这样做。 我在 1980 世纪 XNUMX 年代末神经网络蓬勃发展时加入了人工智能社区,从那时起人工智能取得了长足的进步。 但接下来的三十年并没有给我们的机器带来理解,而这种能力可以将众多应用程序提升到新的实用水平。

 

您表示您同意麻省理工学院人工智能专家罗德尼·布鲁克斯(Rodney Brooks)的观点,他说:“如果没有与环境的交互——没有机器人的身体——机器永远不会表现出通用人工智能。”这基本上表明,如果机器人身体的输入不足,人工智能永远不会发展出通用人工智能的能力。除了计算机视觉之外,开发 AGI 还需要哪些类型的输入?

今天的人工智能需要补充一些基本概念,比如现实中物体的物理存在、时间的流逝、因果关系——任何三岁孩子都清楚的概念。 幼儿通过触摸和操纵玩具、在家里走动、学习语言等,使用多种感官来学习这些概念。虽然有可能创建一个具有更有限感官的 AGI,就像聋子和盲人完全一样智能但更多的感官和交互能力使得解决 AGI 问题变得更容易。

为了完整起见,我的模拟器可以提供嗅觉和味觉。 这些是否对 AGI 也很重要还有待观察。

 

您说过“情报的一个关键要求是情报外部的环境”。您给出的例子是“如果 IBM 的沃森对“事物”是什么没有基本概念,那么期望 IBM 的 Watson 能够“理解”任何事物是不合理的”。这显然体现了当前狭义人工智能的局限性,尤其是自然语言处理。人工智能开发人员如何才能最好地克服人工智能当前的局限性?

一个关键因素是存储知识,这些知识不是专门的言语、视觉或触觉知识,而是可以具有言语、视觉和触觉属性的抽象“事物”。 考虑像短语“红球”这样简单的事情。 由于您的视觉和触觉体验,您知道这些词的含义。 你也知道相关动作的含义,如投掷、弹跳、踢等,当你听到这个短语时,这些动作都会在某种程度上浮现在你的脑海中。 任何专门基于单词或专门基于图像的人工智能系统都会错过其他层次的理解。

我实现了一个通用知识库,它将任何类型的信息存储在类似大脑的结构中,其中事物类似于神经元,并且具有对其他事物的许多属性引用——引用类似于突触。 因此,红色和球是单独的事物,而红球是具有对红色事物和球事物的属性引用的事物。 red 和 ball 都引用了单词“red”和“ball”的相应事物,而每个事物又引用了其他事物,这些事物定义了如何听到、说出、阅读或拼写这些单词以及可能的行动事物。

 

您已经得出这样的结论:通用智能的大脑模拟还有很长的路要走,而通用人工智能可能(相对)指日可待。 基于这一说法,我们是否应该放弃尝试模仿或创建人脑模拟,而只关注 AGI?

今天的深度学习和相关技术非常适合适当的应用,但不会自发地导致理解。 为了采取下一步行动,我们需要添加专门针对解决任何三岁儿童能力范围内的问题的技术。

利用我们计算机的内在能力可以比生物等效物或任何模拟的效率高几个数量级。 例如,您的大脑可以在需要 10-100 毫秒的多次迭代中将信息存储在生物突触的化学成分中。 计算机可以简单地将新的突触值存储在单个内存周期中,速度快十亿倍。

在开发AGI软件时,我既做了生物神经模拟,也做了更高效的算法。 继续使用通用知识库,当在模拟生物神经元中进行模拟时,每个物体至少需要 10 个神经元,通常更多。 这使得人脑的容量介于十到一亿个物体之间。 但如果通用人工智能仅能理解一百万个事物(完全在当今高端台式计算机的范围之内),那么它也许会显得智能。

 

一个关键的未知数是机器人的时间应该分配给处理和对世界做出反应,而不是花在想象和计划上。 您能简要解释一下想象力对于 AGI 的重要性吗?

我们可以想象很多事情,然后只对我们喜欢的事情采取行动,如果你愿意的话,那些可以促进我们内部目标的事情。 想象力的真正力量在于能够预测未来——一个三岁的孩子可以弄清楚哪些动作序列会引导她到达另一个房间的目标,而成年人可以推测哪些词会对他人产生最大的影响。

同样,AGI 也将受益于超越纯粹的反应性推测各种复杂的行为并选择最好的行为。

 

您认为阿西莫夫的机器人三定律太简单且含糊不清。 在您的书中,您分享了一些关于在机器人中编程的推荐定律的想法。 您认为机器人需要遵守哪些法律最重要?

随着通用人工智能的出现,新的“机器人定律”将在数年内不断发展。 我推荐几个首发:

  1. 最大限度地提高内部知识和对环境的理解。
  2. 与其他人(AGI 和人类)准确地分享这些知识。
  3. 最大限度地提高 AGI 和人类整体(而不仅仅是个人)的福祉。

 

您对图灵测试及其背后的概念有一些疑问。您能解释一下您为何认为图灵测试有缺陷吗?

图灵测试作为通用智能的临时定义已经为我们服务了五十年,但随着通用人工智能的临近,我们需要完善这个定义,并且需要一个更清晰的定义。 图灵测试实际上是测试一个人的能力如何,而不是一个人的智能程度。 计算机维持欺骗的时间越长,它在测试中的表现就越好。 显然,问的问题是“你是一台计算机吗?” 以及相关的代理问题,例如“你最喜欢的食物是什么?” 除非 AGI 被编程为欺骗——充其量是一个可疑的目标,否则这些都是致命的赠品。

此外,图灵测试促使人工智能发展到价值有限的领域,例如聊天机器人,其响应具有极大的灵活性,但没有潜在的理解力。

 

在您的图灵测试版本中,您会采取哪些不同的做法?

更好的问题可以专门探讨对时间、空间、因果、深思熟虑等的理解,而不是没有任何心理学、神经科学或人工智能特定基础的随机问题。 这里有些例子:

  1. 你现在看到了什么? 如果你退后三英尺,你会看到什么差异?
  2. 如果我[行动],你的反应是什么?
  3. 如果你[采取行动],我可能的反应是什么?
  4. 你能说出三个类似[物体]的东西吗?

然后,不应该评估响应是否与人类响应没有区别,而应该根据被测试实体的经验来评估它们是否是合理的响应(智能)。

 

您曾说过,当面临执行某些短期破坏性活动的要求时,经过适当编程的 AGI 会简单地拒绝。 我们如何确保 AGI 一开始就被正确编程?

决策是基于目标的。 结合想象力,你(或 AGI)考虑不同可能行动的结果,并选择最能实现目标的行动。 对于人类来说,我们的目标是由进化的本能和我们的经验设定的。 AGI 的目标完全取决于开发人员。 我们需要确保通用人工智能的目标与人类的目标一致,而不是与个人的个人目标一致。 [上面列出了三个可能的目标。]

 

你说过人类创造通用人工智能是不可避免的,你对时间线的最佳估计是多少?

AGI 的各个方面将在未来十年内开始出现,但我们并不都同意 AGI 已经到来。 最终,我们会同意,当通用人工智能大幅超越大多数人类能力时,它就已经到来。 这还需要两到三十年的时间。

 

对于所有关于通用人工智能的讨论,它会是我们所知道的真正的意识吗?

意识表现为一系列基于内部感觉(我们无法观察到)的行为(我们可以观察到)。 AGI 将表现出这些行为; 他们需要这样做才能做出明智的决定。 但我认为,我们的内部感觉在很大程度上取决于我们的感觉硬件和本能,因此我可以保证,无论 AGI 可能有什么内部感觉,它们都会与人类的不同。

对于情感和我们的自由意志感也是如此。 在做出决定时,对自由意志的信仰渗透到我们做出的每一个决定中。 如果你不相信自己有选择,你就会做出反应。 对于 AGI 来说,要做出深思熟虑的决策,它同样需要了解自己的决策能力。

最后一个问题,你认为 AGI 的潜力更大还是更有利?

我乐观地认为,通用人工智能将帮助我们作为一个物种向前发展,并为我们带来许多关于宇宙的问题的答案。 关键是我们在定义通用人工智能的目标时,做好准备并决定我们与通用人工智能的关系。 如果我们决定使用第一批 AGI 作为征服和致富的工具,那么如果它们日后成为针对我们的征服和致富的工具,我们就不会感到惊讶。 如果我们选择通用人工智能作为知识、探索与和平的工具,那么这就是我们可能得到的回报。 选择取决于我们。

感谢您接受精彩的采访,探讨构建 AGI 的未来潜力。 对于希望了解更多信息的读者,可以阅读“计算机会起义吗”或访问 Charles 的网站真实大师.