存根 AI 意识:可能性、理论框架和挑战的探索 - Unite.AI
关注我们.

人工智能

人工智能意识:可能性、理论框架和挑战的探索

mm

发布时间

 on

特色博客图片-人工智能意识:可能性、理论框架和挑战的探索

人工智能意识是一个复杂而迷人的概念,引起了研究人员、科学家、哲学家和公众的兴趣。 随着人工智能的不断发展,不可避免地会出现这样的问题:

机器能否达到与人类相当的意识水平?

随着出现 大型语言模型 (LLM)生成式人工智能,实现人类意识复制之路也正在成为可能。

还是呢?

前谷歌人工智能工程师 布莱克·勒莫因 最近传播了谷歌语言模型的理论 拉曼达 具有感知能力,即在对话中表现出类似人类的意识。 从那时起,他被解雇了,谷歌称他的说法“完全没有根据”。

鉴于技术发展的速度如此之快,我们距离实现人工智能意识可能只有几十年的时间。 综合信息理论(IIT)、全局工作空间理论(GWT)和通用人工智能(AGI)等理论框架为如何实现人工智能意识提供了参考框架。

在我们进一步探索这些框架之前,让我们尝试理解意识。

什么是意识?

意识是指对感官(视觉、听觉、味觉、触觉和嗅觉)和心理(思想、情感、欲望、信仰)过程的认识。 

然而,意识的微妙性和复杂性使其成为一个复杂的、多方面的概念,尽管在神经科学、哲学和心理学方面进行了详尽的研究,但它仍然是一个谜。

大卫·查默斯 (David Chalmers),哲学家和认知科学家, 提到 意识的复杂现象如下:

“我们对意识的了解没有什么比意识更直接的了,但如何将意识与我们所知道的其他一切相调和还远不清楚。 它为何存在? 它有什么作用? 它怎么可能是由块状灰质产生的呢?”

值得注意的是,意识是人工智能领域深入研究的课题,因为人工智能在探索和理解意识方面发挥着重要作用。 意识。 在 Google Scholar 上进行简单搜索会返回有关 2千万 关于人工智能意识的研究论文、论文、论文、会议论文等。

人工智能的现状:无意识实体

今天的人工智能在特定领域取得了显着的进步。 人工智能模型非常擅长解决狭窄的问题,例如图像分类、 自然语言处理、语音识别等,但它们不具备意识。

他们缺乏主观经验、自我意识,或者对他们所接受的训练无法处理的环境的理解。 他们可以表现出智能行为,而无需意识到这些行为的含义,这与人类意识完全不同。

然而,研究人员正试图通过添加一个 记忆 神经网络方面。 研究人员能够通过检查自己的记忆并从中学习来开发出一种适应环境的模型。

人工智能意识的理论框架

1.综合信息论(IIT)

综合信息理论 是神经科学家和精神病学家朱利奥·托诺尼提出的解释意识本质的理论框架。

印度理工学院认为,任何能够高度整合信息的系统,无论是生物系统还是人工系统,都可以被认为是有意识的。 人工智能模型变得越来越复杂,拥有数十亿个参数,能够处理和集成大量信息。 根据印度理工学院的说法,这些系统可能会发展出意识。

然而,必须考虑的是,IIT只是一个理论框架,还有很多不足之处。 辩论 关于其对人工智能意识的有效性和适用性。

2. 全局工作空间理论(GWT)

全局工作空间理论 是由认知心理学家 Bernard J. Baars 开发的认知架构和意识理论。 根据 GWT 的说法,意识的运作方式很像剧院.

意识的“阶段”在给定时间只能容纳有限的信息,并且这些信息被广播到“全局工作空间”——大脑中无意识过程或模块的分布式网络。

将 GWT 应用于人工智能表明,理论上,如果人工智能被设计成具有类似的“全局工作空间”,它就可能具有某种形式的意识。

这并不一定意味着人工智能会像人类一样体验意识。 尽管如此,它仍然会有一个选择性注意和信息整合的过程,这是人类意识的关键要素。

3.通用人工智能(AGI)

人工智能 是一种人工智能,可以像人类一样理解、学习和应用知识来完成广泛的任务。 通用人工智能与狭义人工智能系统形成鲜明对比,狭义人工智能系统旨在执行特定任务,例如语音识别或下棋,目前构成了人工智能应用的大部分。

在意识方面,AGI被认为是在人工系统中体现意识的先决条件。 然而,人工智能还没有先进到足以被认为像人类一样聪明。

实现人工意识的挑战

1. 计算挑战

心智计算理论 (CTM) 认为人脑是一个物理实现的计算系统。 该理论的支持者认为,要创建一个有意识的实体,我们需要开发一个具有类似于我们大脑的认知架构的系统。

但人脑由 100十亿个神经元,因此复制这样一个复杂的系统将需要详尽的计算资源。 此外,理解意识的动态本质超出了当前技术生态系统的界限。

最后,即使我们解决了计算挑战,实现人工智能意识的路线图仍然不清楚。 有 挑战 到 CTM 的认识论,这就提出了一个问题:

我们如何确定人类意识可以纯粹地简化为计算过程?

2. 意识难题

“”意识难题“”是意识研究中的一个重要问题,特别是在考虑其在人工智能系统中的复制时。

难题意味着意识的主观体验、感受性(现象体验)或主观体验的“感觉”。

在人工智能的背景下,这个难题提出了一个基本问题:是否有可能创造出不仅表现出智能行为而且具有主观意识和意识的机器。

哲学家 Nicholas Boltuc 和 Piotr Boltuc 在为人工智能中的意识难题提供类比的同时, 对工资盗窃:

“原则上,人工智能可以以第一人称形式复制意识(H意识)(正如查尔默斯在意识难题中所描述的那样)。如果我们能够清楚地理解第一人称意识,我们就可以为其提供一种算法; 如果我们有这样的算法,原则上我们可以构建它”

但主要问题是我们对意识并没有清楚的了解。 研究人员 说我们对意识的理解和围绕意识建立的文献并不令人满意。

3. 道德困境

围绕人工智能意识的伦理考虑为这一雄心勃勃的追求增添了另一层复杂性和模糊性。 人工意识引发了一些伦理问题:

  1. 如果人工智能能够理解、学习并适应人类的程度,它是否应该被赋予权利?
  2. 如果有意识的人工智能犯罪,谁来承担责任?
  3. 如果一个有意识的人工智能被摧毁,这是否被视为财产损失或类似谋杀?

神经科学的进步和机器学习算法的进步可以创造更广泛的通用人工智能的可能性。然而,在一段时间内,人工意识仍将是研究人员、技术领导者和哲学家之间的一个谜和争论的主题。人工智能系统变得有意识伴随着各种 风险 必须对此进行彻底研究。

更多AI相关内容,请访问 团结.ai.