Connect with us

监管

中国针对生成式人工智能数据安全提出新监管提议

mm

数据安全至关重要,尤其是在人工智能(AI)等具有影响力的领域。认识到这一点,中国提出新的草案规定,这一举动凸显了人工智能模型训练过程中数据安全的重要性。

“黑名单”机制和安全评估

10月11日公开的草案并非来自单一实体,而是多方合作的结果。国家信息安全标准化委员会负责此事,并得到了中国网络空间管理局(CAC)、工业和信息化部以及多个执法机构的重要贡献。这种多机构的参与表明了人工智能数据安全所涉及的高风险和多样化的考虑。

生成式人工智能的能力既令人印象深刻,又非常广泛。从创作文本内容到创建图像,这一人工智能子集通过学习现有数据来生成新的、原创的输出。然而,巨大的力量带来巨大的责任,需要对作为这些人工智能模型学习材料的数据进行严格的检查。

拟议的规定非常详细,提倡对面向公众的生成式人工智能模型使用的数据进行彻底的安全评估。他们更进一步,提出了一种“黑名单”机制。黑名单的门槛很明确——包含超过“5%的违法和有害信息”的内容。这种信息的范围很广,包括煽动恐怖主义、暴力或对国家利益和声誉造成危害的内容。

对全球人工智能实践的影响

中国的草案规定提醒我们,人工智能开发中存在的复杂性,特别是当技术变得更加复杂和普遍时。这些指南表明,公司和开发者需要谨慎地平衡创新与责任。

虽然这些规定是针对中国的,但其影响可能会在全球范围内产生共鸣。它们可能会激发类似的全球战略,或者至少,引发更深入的对话关于人工智能的伦理和安全。随着我们继续拥抱人工智能的可能性,前进的道路需要我们对潜在风险有着敏锐的意识和积极的管理。

中国的这一举动凸显了一个普遍的真理——随着技术,尤其是人工智能,与我们的世界更加紧密地交织在一起,对数据安全和伦理考虑的需求变得更加迫切。拟议的规定标志着一个重要的时刻,引起人们对人工智能安全和负责任的演进的更广泛影响的关注。

Alex McFarland 是一名人工智能记者和作家,探索最新的人工智能发展。他曾与世界各地的众多人工智能初创公司和出版物合作。