人工智能
OpenAI 的新举措:引导超级智能 AI 走向正确的方向

人工智能领域的领先企业 OpenAI 最近宣布成立专门团队来管理与超级人工智能相关的风险。 这一举措出台之际,世界各国政府正在考虑如何监管新兴人工智能技术。
了解超级人工智能
超级智能是指假设的人工智能模型,它们在多个专业领域超越最有天赋和最聪明的人类,而不像某些上一代模型那样只在单一领域超越。OpenAI 预测,这种模型可能在 2020 年内出现。该组织认为,超级智能可能是人类有史以来最具影响力的技术,有可能帮助我们解决世界上许多最紧迫的问题。然而,超级智能的巨大力量也可能带来重大风险,包括可能削弱人类的力量,甚至导致人类灭绝。
OpenAI 的超级对齐团队
为了解决这些问题,OpenAI 成立了一个新的“超级对位'团队由OpenAI首席科学家Ilya Sutskever和该研究实验室的对齐负责人Jan Leike共同领导。该团队将使用OpenAI目前已获得的20%的计算能力。他们的目标是开发一个自动对齐研究员系统,该系统可以帮助OpenAI确保超级智能的使用安全并与人类价值观保持一致。
尽管 OpenAI 承认这是一个令人难以置信的雄心勃勃的目标,并且不能保证成功,但该组织仍然保持乐观。 初步实验已经显示出希望,并且可以使用越来越有用的进展指标。 此外,当前的模型可用于实证研究许多此类问题。
监管的必要性
Superalignment 团队的成立正值世界各国政府考虑如何监管新兴的人工智能行业之际。OpenAI 首席执行官 Sam Altman 近几个月来已与至少 100 名联邦议员会面。Altman 公开表示,人工智能监管“至关重要”,OpenAI“渴望”与政策制定者合作。
然而,务必对此类声明保持一定程度的怀疑态度。像 OpenAI 这样的组织,通过将公众的注意力集中在可能永远不会实现的假设风险上,可能会将监管负担推到未来,而不是解决政策制定者当前亟需解决的人工智能、劳动力、虚假信息和版权等紧迫问题。
OpenAI 组建专门团队管理超级人工智能风险的举措,是朝着正确方向迈出的重要一步。这凸显了积极主动应对高级人工智能带来的潜在挑战的重要性。在我们继续应对人工智能发展和监管的复杂性之际,此类举措提醒我们,需要采取一种平衡的方法,既能发挥人工智能的潜力,又能防范其风险。




