存根 OpenAI 的新举措:引导超级智能 AI 走向正确的方向 - Unite.AI
关注我们.

人工智能

OpenAI 的新举措:引导超级智能 AI 走向正确的方向

发布时间

 on

人工智能领域的领先企业 OpenAI 最近宣布成立专门团队来管理与超级人工智能相关的风险。 这一举措出台之际,世界各国政府正在考虑如何监管新兴人工智能技术。

了解超级人工智能

超级智能人工智能是指在多个专业领域超越最有天赋和最聪明的人类的假想人工智能模型,而不仅仅是像上一代模型那样的单一领域。 OpenAI 预测这样的模型可能会在本世纪末出现。 该组织认为,超级智能可能是人类发明的最具影响力的技术,有可能帮助我们解决世界上许多最紧迫的问题。 然而,超级智能的巨大力量也可能带来重大风险,包括可能剥夺人类的权力,甚至导致人类灭绝。

OpenAI 的超级对齐团队

为了解决这些问题,OpenAI 成立了一个新的“超级对位”团队由 OpenAI 首席科学家 Ilya Sutskever 和研究实验室协调负责人 Jan Leike 共同领导。 该团队将获得 OpenAI 目前已获得的 20% 的计算能力。 他们的目标是开发一个自动对齐研究器,该系统可以帮助 OpenAI 确保超级智能可以安全使用并符合人类价值观。

尽管 OpenAI 承认这是一个令人难以置信的雄心勃勃的目标,并且不能保证成功,但该组织仍然保持乐观。 初步实验已经显示出希望,并且可以使用越来越有用的进展指标。 此外,当前的模型可用于实证研究许多此类问题。

监管的必要性

Superalignment 团队成立之际,世界各国政府正在考虑如何监管新兴的人工智能行业。 OpenAI 首席执行官 Sam Altman 近几个月会见了至少 100 名联邦立法者。 Altman 公开表示,人工智能监管“至关重要”,OpenAI“渴望”与政策制定者合作。

然而,重要的是要以一定程度的怀疑态度对待此类声明。 通过将公众的注意力集中在可能永远不会实现的假设风险上,像 OpenAI 这样的组织可能会将监管负担转移到未来,而不是解决政策制定者今天需要解决的有关人工智能和劳动力、错误信息和版权的紧迫问题。

OpenAI 组建专门团队来管理超级人工智能风险的举措是朝着正确方向迈出的重要一步。 它强调了采取积极措施应对先进人工智能带来的潜在挑战的重要性。 当我们继续应对人工智能开发和监管的复杂性时,此类举措提醒我们需要采取一种平衡的方法,既要利用人工智能的潜力,又要防范其风险。

Alex McFarland 是一位人工智能记者和作家,致力于探索人工智能的最新发展。他与全球众多人工智能初创公司和出版物合作。