监管
欧盟人工智能法案的失败之处

一份针对欧盟拟议的“人工智能法案”的新法律批评,对于四月份发布的拟议法规提出了广泛的批评 released in April,结论是该文件的大部分内容是从1980年代的消费者法规中“拼凑”而成的;它实际上促进了欧洲的去监管人工智能环境,而不是让该行业受到协调的监管;以及——在其他批评中——该提案概述了一个监管人工智能框架的未来,其“意义和影响甚微”。
该题为 揭秘欧盟人工智能法案草案 的预印本是UCL伦敦和奈梅亨的拉德伯德大学研究人员之间的合作成果 pre-print。
该论文增加了对拟议实施(而不是广泛赞扬的意图)的负面意见的数量,包括四月份对该草案法规自身贡献者的争论 in April,即拟议的指南是“温和的、短视的和故意含糊的”,将欧盟委员会的文件描述为“假道学”的倡导者。
操纵性人工智能系统
该论文认为,人工智能法案对“操纵性系统”的拟议限制因“伤害”的定义模糊甚至自相矛盾而受到阻碍,评论说“[一个]怀疑论者可能会觉得委员会更感兴趣的是禁令的修辞价值,而不是实际效果”。
拟议法规概述了两个拟议禁止的做法:
(a) 将部署使用超意识技术的AI系统放置于市场、投入服务或使用,以便以可能对个人或其他人造成身体或心理伤害的方式扭曲个人行为;
(b) 将部署利用特定人群的年龄、身体或精神残疾等弱点的AI系统放置于市场、投入服务或使用,以便以可能对个人或其他人造成身体或心理伤害的方式扭曲该人群中个人的行为;
研究人员认为,这些限制并没有解决AI服务提供商的服务或软件是否成功实现其自身目标的问题,而仅仅是当最终用户在此过程中受到“伤害”时。他们还补充说,该草案对伤害的定义仅限于个人用户,而不是可以合理地从近年来的人工智能争议中推断出来的集体或社会伤害,例如剑桥分析公司事件。
该论文指出,“在现实生活中,伤害可能会在没有单一事件触发严重程度阈值的情况下积累,使得证明变得困难”。
允许有害人工智能系统,但不用于欧盟消费
人工智能法案拟议在公共场所实施对法警的实时生物识别系统的禁令。虽然一些公众怀疑该提案为反恐、人口贩卖和追捕欧洲逮捕令所做的例外,但研究人员指出,没有什么能阻止供应商将违反此类生物识别系统出售给压迫性政权。
该论文指出,这已经是历史上的做法,如2020年国际特赦组织的报告所揭露的。
它进一步指出,人工智能法案对“实时”生物识别系统的规定是武断的,并排除了离线分析系统,例如来自抗议活动的视频录像的后期处理。
此外,提案中没有机制来限制与执法无关的生物识别系统,而是将其懒散地推迟到GDPR;并且GDPR本身“要求每个扫描的人都具有高质量的个人同意,这实际上是不可能实现的”。
该论文还对人工智能法案这一部分的措辞提出批评。草案规定,需要对生物识别系统的部署进行预先授权,以便主管当局“单独使用”此类系统——但并未澄清在此背景下“单独使用”是什么意思。该论文指出,争议的令状可以是 主题,并涉及广泛的组织、目的和地点。
此外,草案法规并未规定透明度机制,以便公众审查所颁发的授权数量和类型。
外包监管至“协调标准”
研究人员指出,人工智能法案中最重要的实体实际上在草案法规中甚至没有被提及:CEN(欧洲标准化委员会)和CENELEC(欧洲电工标准化委员会)——欧洲标准化组织(ESO)中的两个,这些组织可以被欧盟委员会委托制定协调标准,这些标准在许多情况下将成为某些类型的人工智能服务和部署的管辖监管框架。
这实际上意味着人工智能生产者可以选择遵循相互竞争而不是互补的法规的标准,而不是满足人工智能法案中概述的基本要求。当这些拟议的法规在2024-5年生效时,这将使提供者能够更自由地解释这些法规。
该论文的研究人员还认为,标准化机构之间的工业游说将在未来几年重新定义这些“基本标准”,并建议“理想”的法规应该从更高的道德水平和立法清晰度开始,如果只是为了考虑这一不可避免的削弱过程。
合理化情感识别系统的谬误
人工智能法案中包含了对情感识别和分类系统的部署的规定——这些框架可能不一定能够识别个体,但声称能够理解个体的情感或能够根据性别、种族和其他各种经济和社会标志对个体进行分类。
研究人员认为,这一条款是无意义的,因为GDPR已经要求此类系统的提供者向用户提供有关此类系统使用的明确信息,以便用户可以选择退出(这可能涉及不使用在线服务,或不进入已知存在此类系统的区域)。
更重要的是,该论文声称这一条款合理化了一种 被驳斥 的技术,并将FACS风格的情感识别系统描述为早期工业时代的耻辱历史,例如相面术和其他近似萨满教的社会分类方法。
“那些声称检测情绪的人使用过于简单、值得怀疑的分类法;错误地假设在不同文化和背景下具有普遍性;并且冒着‘将我们带回相面术的过去’的风险,通过面部结构分析性格特征 from facial structures。该法案关于情感识别和生物识别分类的规定似乎不足以减轻风险。”
过于谦逊的提议
除了这些之外,研究人员还解决了人工智能法案在深度伪造、人工智能系统碳排放监管不足、监管监督的重复以及可起诉的法律实体的定义不足等方面的其他所感知到的缺陷。
他们敦促立法者和民间活动家采取行动来解决所确定的问题,并进一步指出,即使他们对拟议法规的详细分析也不得不省略许多其他问题领域,因为缺乏空间。
尽管如此,该论文赞扬了该法案尝试引入人工智能系统的横向监管体系,引用了其许多“合理的元素”,例如创建风险评估级别的等级制度,致力于引入禁止规定,并提议建立一个公共数据库,供应商需要向其贡献以获得欧洲合法性,尽管指出后者可能带来法律难题。
