人工智能
OpenAI成立安全委员会,在争议中训练下一代AI模型

OpenAI在推进人工智能技术方面取得了重大进展,其最新成就是为流行的ChatGPT聊天机器人提供动力的GPT-4o系统。今天,OpenAI宣布成立一个新的安全委员会——OpenAI安全委员会,并透露已开始训练一个新的人工智能模型。
OpenAI安全委员会成员有哪些?
新成立的OpenAI安全委员会旨在为与公司项目和运营相关的关键安全和安保决策提供指导和监督。该委员会的主要目标是确保OpenAI的人工智能开发实践优先考虑安全并符合道德原则。安全委员会由多元化的人员组成,包括OpenAI高管、董事会成员以及技术和政策专家。 OpenAI安全委员会的知名成员包括:
- Sam Altman,OpenAI首席执行官
- Bret Taylor,OpenAI董事会主席
- Adam D’Angelo,Quora首席执行官兼OpenAI董事会成员
- Nicole Seligman,索尼前总法律顾问兼OpenAI董事会成员
在其初始阶段,新的安全与安保委员会将专注于评估和加强OpenAI现有的安全流程与保障措施。OpenAI安全委员会设定了90天的时间表,以向董事会提供关于如何加强公司人工智能开发实践和安全系统的建议。一旦建议被采纳,OpenAI计划以符合安全和安保考虑的方式公开发布这些建议。
新AI模型的训练
在成立OpenAI安全委员会的同时,OpenAI宣布已开始训练其下一代前沿模型。这个最新的人工智能模型预计将超越目前支撑ChatGPT的GPT-4系统的能力。虽然关于新AI模型的细节仍然很少,但OpenAI表示,它将在能力和安全性方面引领行业。 这个新AI模型的开发突显了人工智能领域创新的快速步伐以及通用人工智能的潜力。随着人工智能系统变得更加先进和强大,优先考虑安全并确保这些技术得到负责任的发展至关重要。
OpenAI近期的争议与离职事件
OpenAI重新关注安全之际,正值公司内部动荡和公众审视的时期。最近几周,该公司面临来自其内部的批评,研究员Jan Leike辞职并表达了对安全让位于开发”光鲜产品”的担忧。Leike辞职后,OpenAI联合创始人兼首席科学家Ilya Sutskever也离职了。 Leike和Sutskever的离职引发了关于公司优先事项及其人工智能安全方法的质疑。这两位研究员共同领导了OpenAI的”超级对齐”团队,该团队致力于解决长期的人工智能风险。他们辞职后,超级对齐团队被解散,这进一步加剧了人们对公司安全承诺的担忧。 除了内部动荡,OpenAI还面临其ChatGPT聊天机器人涉嫌声音模仿的指控。一些用户声称,该聊天机器人的声音与女演员Scarlett Johansson的声音惊人地相似。尽管OpenAI否认有意模仿Johansson,但这一事件引发了关于AI生成内容的伦理影响以及潜在滥用的更广泛讨论。
关于AI伦理的更广泛讨论
随着人工智能领域的持续快速发展,像OpenAI这样的公司必须与研究人员、政策制定者和公众进行持续的对话与合作,以确保人工智能技术得到负责任的发展并配备健全的保障措施。OpenAI安全委员会提出的建议以及OpenAI对透明度的承诺,将有助于更广泛的人工智能治理对话,并帮助塑造这项变革性技术的未来,但最终结果如何,只有时间才能证明。












