通用人工智能
我们如何从推进通用人工智能(AGI)中获益

创造通用人工智能(AGI)是许多AI专家的终极目标。 AGI代理可以被用来解决世界上无数的难题。例如,你可以向一个AGI代理提出一个问题,然后AGI可以利用深度强化学习结合其新出现的涌现意识来做出现实生活中的决策。 AGI与普通算法的区别在于AGI能够向自己提出重要问题。AGI可以构想出它希望达成的最终解决方案,模拟达到该方案的各种假设性途径,然后根据模拟结果做出明智决策,选择哪个模拟现实最符合设定的目标。 关于AGI如何出现的争论,自1956年达特茅斯会议首次提出“人工智能”一词以来就一直存在。自那时起,许多公司都尝试应对AGI的挑战,OpenAI可能是其中最知名的公司。OpenAI于2015年12月11日作为非营利组织成立,其使命宣言是确保通用人工智能(AGI)——我们指的是在大多数具有经济价值的工作上超越人类的高度自主系统——造福全人类。 OpenAI的使命宣言清晰地概述了AGI可以为社会带来的潜在收益。突然间,那些对人类和普通AI系统来说过于复杂的问题,现在都能够得到解决。 释放AGI的潜在好处是巨大的。你可以设定一个目标,比如治愈所有形式的癌症,然后AGI可以连接到互联网,扫描所有当前以各种语言进行的研究。AGI可以启动制定解决方案的问题,然后模拟所有可能的结果。它将把目前人类拥有的意识优势,与云端无限的知识连接起来,利用深度学习进行大数据的模式识别,并利用强化学习来模拟不同的环境/结果。所有这些都与一个永远不需要休息、可以100%专注于手头任务的意识相结合。 当然,AGI的潜在缺点也不容低估。你可能会有一个AGI,其目标是不断自我升级,然后为了最大化其永远升级系统所需的计算资源和原子,吞噬其路径上的一切。这一理论在尼克·博斯特罗姆教授的“回形针最大化”论点中得到了详细探讨,在这个场景中,一个配置错误的AGI被指令生产回形针,并一直生产直到什么都不剩,字面意思是地球上的每一种资源都被消耗掉以最大化回形针的产量。 一个更务实的观点是,AGI可能被一个流氓国家或道德低下的公司控制。这个实体可以编程AGI以最大化利润,在这种情况下,由于编程不当且毫无悔意,它可能会选择让竞争对手破产、摧毁供应链、黑客攻击股市、清空银行账户等等。 因此,从一开始就需要在AGI中编程一套道德准则。许多智者都曾辩论过道德准则,这个概念最初以作家艾萨克·阿西莫夫的机器人三定律的形式被介绍给大众。 








