存根 连接点:揭开 OpenAI 所谓的 Q-Star 模型 - Unite.AI
关注我们.

人工智能

连接点:揭开 OpenAI 所谓的 Q-Star 模型

mm

发布时间

 on

最近,人工智能社区内围绕 OpenAI 所谓的项目 Q-star 进行了相当多的猜测。 尽管有关这一神秘举措的信息有限,但据说它标志着实现通用人工智能(达到或超过人类能力的智能水平)的重要一步。 虽然大部分讨论都集中在这种发展对人类的潜在负面影响上,但致力于揭示 Q-star 的本质及其可能带来的潜在技术优势的努力却相对较少。 在本文中,我将采取探索性方法,尝试主要从其名称来阐明该项目,我相信它提供了足够的信息来收集有关它的见解。

神秘的背景

这一切都始于 OpenAI 董事会突然 驱逐萨姆·奥尔特曼,首席执行官兼联合创始人。 尽管奥特曼后来恢复了职务,但对这些事件的疑问仍然存在。 一些人认为这是一场权力斗争,而另一些人则将其归因于奥特曼对世界币等其他企业的关注。 然而,随着路透社报道称,一个名为 Q-star 的秘密项目可能是这部剧的主要原因,情节变得更加复杂。 据路透社报道,Q-Star 标志着 OpenAI 的 AGI 目标迈出了实质性一步,这是 OpenAI 员工向董事会表达的担忧。 此消息一出,引发各界猜测和担忧。

拼图的基石

在本节中,我介绍了一些构建块,将帮助我们解开这个谜团。

  • 问学习: 强化学习 是一种机器学习,计算机通过与环境交互、接收奖励或惩罚形式的反馈来学习。 Q 学习是强化学习中的一种特定方法,它通过学习不同情况下不同动作的质量(Q 值)来帮助计算机做出决策。它广泛应用于游戏和机器人等场景,允许计算机通过反复试验的过程来学习最佳决策。
  • A 星搜索: A-star 是一种搜索算法,可帮助计算机探索可能性并找到解决问题的最佳解决方案。 该算法因其在图形或网格中找到从起点到目标的最短路径的效率而特别引人注目。 其关键优势在于巧妙地权衡到达节点的成本与达到总体目标的估计成本。 因此,A-star 被广泛用于解决与寻路和优化相关的挑战。
  • 阿尔法零: 零度,先进的人工智能系统 DeepMind,结合了 Q 学习和搜索(即蒙特卡罗树搜索),用于国际象棋和围棋等棋盘游戏中的战略规划。 它通过自我对弈学习最佳策略,并在神经网络的指导下进行移动和位置评估。 蒙特卡罗树搜索 (MCTS) 算法在探索游戏可能性时平衡探索和利用。 AlphaZero 的迭代自我对弈、学习和搜索过程可带来持续改进,实现超人表现并战胜人类冠军,展示其在战略规划和解决问题方面的有效性。
  • 语言模型: 大型语言模型 (法学硕士),例如 GPT-3,是人工智能的一种形式,旨在理解和生成类似人类的文本。 他们接受广泛多样的互联网数据培训,涵盖广泛的主题和写作风格。 法学硕士的突出特点是能够预测序列中的下一个单词,称为语言建模。 目标是让人们了解单词和短语如何相互关联,从而使模型能够生成连贯且上下文相关的文本。 广泛的培训使法学硕士能够精通语法、语义,甚至语言使用的细微差别。 经过训练后,这些语言模型可以针对特定任务或应用程序进行微调,使其成为多功能工具 自然语言处理、聊天机器人、内容生成等等。
  • 通用人工智能: 人工智能 (AGI)是一种人工智能,具有理解、学习和执行跨越不同领域的任务的能力,其水平达到或超过人类认知能力。 与狭义或专门的人工智能相比,AGI 具有自主适应、推理和学习的能力,而不局限于特定任务。 AGI 使人工智能系统能够展示独立决策、解决问题和创造性思维,反映人类智能。 从本质上讲,AGI 体现了机器能够承担人类执行的任何智力任务的理念,强调了跨不同领域的多功能性和适应性。

法学硕士在实现 AGI 方面的主要局限性

大型语言模型 (LLM) 在实现通用人工智能 (AGI) 方面存在局限性。 虽然擅长根据从大量数据中学习到的模式来处理和生成文本,但他们很难理解现实世界,从而阻碍了知识的有效利用。 AGI 需要常识推理和规划能力来处理日常情况,而法学硕士认为这具有挑战性。 尽管给出了看似正确的答案,但他们缺乏系统解决复杂问题(例如数学问题)的能力。

新的研究表明,法学硕士可以像通用计算机一样模仿任何计算,但受到对大量外部存储器的需求的限制。 增加数据对于提高法学硕士至关重要,但与节能的人脑不同,它需要大量的计算资源和能量。 这给法学硕士在 AGI 中的广泛应用和可扩展性带来了挑战。 最近的研究表明,仅仅添加更多数据并不总能提高性能,这引发了一个问题:在迈向 AGI 的过程中还应该关注哪些方面。

连接点

许多人工智能专家认为,大型语言模型(LLM)的挑战来自于他们主要关注预测下一个单词。 这限制了他们对语言细微差别、推理和计划的理解。 为了解决这个问题,研究人员喜欢 Yann LeCun 建议尝试不同的训练方法。 他们建议法学硕士应该积极计划预测单词,而不仅仅是下一个标记。

“Q-star”的想法与 AlphaZero 的策略类似,可能涉及指导法学硕士积极规划标记预测,而不仅仅是预测下一个单词。 这将结构化推理和规划带入语言模型中,超出了通常关注的预测下一个标记的范围。 通过使用受 AlphaZero 启发的规划策略,法学硕士可以更好地理解语言的细微差别,改进推理,并加强规划,解决常规法学硕士培训方法的局限性。

这种集成建立了一个灵活的框架来表示和操作知识,帮助系统适应新的信息和任务。 这种适应性对于通用人工智能 (AGI) 至关重要,因为它需要处理具有不同要求的各种任务和领域。

AGI 需要常识,训练法学硕士的推理能力可以让他们对世界有全面的了解。此外,培训像 AlphaZero 这样的法学硕士可以帮助他们学习抽象知识,提高不同情况下的迁移学习和泛化能力,为 AGI 的强劲表现做出贡献。

除了该项目的名称之外,对这一想法的支持还来自路透社的报道,强调了 Q-star 成功解决特定数学和推理问题的能力。

底线

Q-Star 是 OpenAI 的秘密项目,正在人工智能领域掀起波澜,目标是实现超越人类的智能。 在谈论其潜在风险的同时,本文深入探讨了这个难题,将 Q 学习、AlphaZero 和大型语言模型 (LLM) 的各个点联系起来。

我们认为“Q-star”意味着学习和搜索的智能融合,能够提升法学硕士的规划和推理能力。 路透社称它可以解决棘手的数学和推理问题,这表明这是一项重大进步。 这就需要更仔细地研究人工智能学习未来的发展方向。

Tehseen Zia 博士是伊斯兰堡 COMSATS 大学的终身副教授,拥有奥地利维也纳科技大学的人工智能博士学位。 他专注于人工智能、机器学习、数据科学和计算机视觉,在著名科学期刊上发表论文,做出了重大贡献。 Tehseen 博士还作为首席研究员领导了多个工业项目,并担任人工智能顾问。