Connect with us

监管

欧盟的新人工智能行为准则将影响监管

mm

欧洲委员会最近引入了一份 行为准则,这可能会改变人工智能公司的运营方式。这不仅仅是另一套指南,而是一整套人工智能监管的彻底改革,即使是最大的玩家也无法忽视它。

是什么让它与众不同?首次,我们看到具体的规则,这些规则可能会迫使像 OpenAI 和 Google 这样的公司开放他们的模型进行外部测试,这是人工智能系统在欧洲开发和部署方式的根本转变。

人工智能监管的新主导者

欧洲委员会创建了一个框架,专门针对他们所称的具有“系统风险”的人工智能系统。我们正在谈论使用超过 10^25 次浮点运算的计算能力训练的模型——这是 GPT-4 已经超越的阈值。

公司需要在开始人工智能训练两周前报告他们的计划。

在这个新系统的中心,有两个关键文件:安全和安全框架(SSF)和安全和安全报告(SSR)。SSF 是管理人工智能风险的综合路线图,涵盖从初始风险识别到持续的安全措施。同时,SSR 作为每个单独模型的详细文档工具。

高风险人工智能模型的外部测试

委员会要求对高风险人工智能模型进行外部测试。这不是您标准的内部质量检查——独立专家和欧盟的人工智能办公室正在深入这些系统。

影响很大。如果您是 OpenAI 或 Google,您突然需要让外部专家检查您的系统。草案明确指出,公司必须“在部署前确保充分的独立专家测试”。这是一个巨大的转变,从当前的自我监管方法来看。

问题出现:谁有资格测试这些极其复杂的系统?欧盟的人工智能办公室正在进入一个以前从未被绘制过的领域。他们需要能够理解和评估新的人工智能技术,同时保持对他们发现的内容的严格保密性。

这种外部测试要求可能会通过委员会的实施法案在整个欧盟范围内成为强制性的。公司可以尝试通过“充分的替代手段”来证明合规性,但没有人确切知道这在实践中意味着什么。

版权保护变得严格

欧盟也正在认真对待版权。他们正在迫使人工智能提供者创建明确的知识产权处理政策。

委员会支持 robots.txt 标准——一个简单的文件,告诉网络爬虫可以和不能去哪里。如果一个网站通过 robots.txt 说“不”,人工智能公司就不能忽略它并在此内容上进行训练。搜索引擎不能因为网站使用这些排除而对其进行处罚。这是一个让内容创作者重新掌控权力的举动。

人工智能公司还将不得不在收集训练数据时积极避免盗版网站。欧盟甚至将他们的“反假冒和盗版观察名单”作为起点。

这对未来的意义

欧盟正在为人工智能开发创造一个全新的竞技场。这些要求将影响公司如何规划他们的人工智能项目以及如何收集他们的训练数据。

每一家主要的人工智能公司现在都面临着一个选择。他们需要:

  • 开放他们的模型进行外部测试
  • 弄清楚那些神秘的“替代手段”是什么样的
  • 或者可能限制他们在欧盟市场的运营

时间表也很重要。这不是某个遥远的未来法规——委员会正在快速行动。他们成功地聚集了大约 1,000 名利益相关者,分为四个工作组,共同敲定了这些法规的细节。

对于正在构建人工智能系统的公司来说,“快速行动,稍后再制定规则”的日子可能即将结束。他们需要现在就开始思考这些要求,而不是等到这些要求成为强制性的。这意味着:

  • 在他们的开发时间表中规划外部审计
  • 建立健全的版权合规系统
  • 构建符合欧盟要求的文档框架

这些法规的真正影响将在未来几个月内逐渐显现。虽然一些公司可能会寻找变通方法,但其他公司将将这些要求整合到他们的开发流程中。欧盟的框架可能会影响全球的人工智能开发,特别是如果其他地区也跟进类似的监管措施。随着这些规则从草案转变为实施,人工智能行业将面临其迄今为止最大的监管转变。

Alex McFarland 是一名人工智能记者和作家,探索最新的人工智能发展。他曾与世界各地的众多人工智能初创公司和出版物合作。