Connect with us

思想领袖

从神经网络到疏忽:当人工智能失败时,谁负责?

mm
A conceptual legal illustration showing a lawyer in a boardroom, a scale of justice with a glowing AI brain and a human hand, and a digital

本文讨论了人工智能造成的危害的法律问题,以及如果神经网络在现实世界中不能正常运行,责任可能在哪里。

人工智能(AI)已经从研究实验室进入法庭、诊所、汽车和股票交易所,神经网络可以诊断疾病、批准贷款,并越来越多地完成长期以来被认为是人类的任务。但是,当这些系统在现实世界中失败时,它们的后果往往是严重的,甚至是致命的。

作为加拿大安大略省的一名原告人身伤害律师和商业管理博士候选人,我越来越多地被问到一个简单的问题:如果人工智能造成伤害,谁该负责?

然而,答案实际上更加复杂。人工智能对疏忽、因果关系和可预见性的原则提出了挑战,并提出了关于如何应对机器决策的基本问题。

人工智能在高风险决策中的日益重要作用

人工智能不再仅限于自动化低技能任务或机器学习平台。它现在可以在医疗保健、金融、就业、交通、执法和法律分析等领域做出决策。

当前的人工智能模型通常由深度神经网络组成,虽然它们可以在大型数据集中检测复杂模式,但对于开发人员来说仍然相当不透明。 学者们观察到 人工智能系统将不可预测性和自主性引入法律,这些法律曾经严格遵循可预见性和意图。这在创新和问责之间造成了冲突。

虽然法律体系将造成的伤害归咎于人类,但人工智能将责任分散到数据工程师、部署者和最终用户之间。责任变得模糊。

责任缺口:当伤害不能轻易归咎于某人时

法律学者 越来越多地提到了人工智能治理中出现的“责任缺口”这一概念。传统的侵权法取决于以下几点:

  1. 注意义务
  2. 违反该义务
  3. 因果关系
  4. 损害

人工智能使每个元素都变得复杂。例如,开发人员可能不知道模型在部署后会如何表现,组织可能使用第三方机器学习(ML)系统。从最终用户的角度来看,确定输出的机制是不透明的。

一项学术研究指出,如果人工智能系统以半自治或通过机器学习等过程自主适应的方式运行,证明过错变得更加困难。这一碎片化挑战了依赖于人类代理的原则。

在人身伤害诉讼中,法院通常会检查被告是否在特定情况下表现得合理。但是,当决策部分委托给概率模型时,法院应该如何评估合理性?

神经网络和可解释性的问题

深度学习系统通常作为“黑盒”运行。即使对于专家来说,它们的内部决策过程也很难解释。这一缺乏可解释性的后果在法律上非常严重。

如果一个医疗人工智能系统误诊癌症,谁该负责?可能是:

  • 模型的训练方式
  • 训练数据中是否存在偏见
  • 验证过程是否充分
  • 临床医生是否过度依赖自动输出

法律文献建议 在归咎人工智能造成的伤害时,应区分 因果责任、角色责任和责任责任

然而,在实践中,责任可能延伸到一系列行为者:

  • 数据提供者
  • 软件开发人员
  • 模型训练人员
  • 部署者
  • 使用人工智能输出的组织
  • 依赖人工智能推荐的专业人员

人工智能不会消除责任,而是重新分配责任。

自动驾驶汽车:人工智能责任的一个案例研究

自动驾驶汽车诉讼为我们提供了一个早期的例子,展示了法院如何处理人工智能相关的伤害。 法院已经应用 传统的疏忽和产品责任原则来处理新技术造成的伤害。 在最近的案例中,陪审团开始在人类驾驶员和创建自动驾驶系统的技术公司之间分配责任。

法律评论家 建议,现有的产品责任原则(如设计缺陷、制造缺陷和未能警告)也适用于人工智能启用的系统。

然而,自动驾驶汽车暴露了当前法律框架的局限性。责任应该归咎于:
汽车制造商?软件开发人员?人类操作员?还是用于训练算法的数据?

一些学者 建议,可以通过类比产品责任原则来有效地划分上游和下游行为者的责任。

从原告的角度来看,这些案例表明,法院可能仍然会将传统原则应用于新技术,但仅限于具有真正先进的专家证据和技术知识的情况下。

严格责任和疏忽:竞争的法律理论

一个核心的辩论是,是否可以将传统的疏忽框架应用于人工智能系统。 一些学者 倡导严格责任制度,认为在高度复杂的技术环境中,受伤方不应承担证明过错的负担。

严格责任可能特别适用于以下情况:伤害是可预见的但不可避免的,人工智能系统以大规模部署,风险是社会分配的,或者技术原因不容易证明。

有人认为,疏忽法可以适应技术变化。 比较法律研究 已经为建立在现有原则基础上进行了论证,具有其固有的稳定效果和对新伤害的渐进适应。

严格责任和疏忽法说明了与创新、公平和风险及成本分配相关的政策偏好。

创新者是否应该对技术风险负责?或者说,社会应该广泛地承担进步的成本?

商业视角:风险分配和保险

从商业角度来看,人工智能责任不仅是一个法律问题,也是一个风险管理问题。部署人工智能系统的组织已经开始关注合同风险分配问题:专业责任保险、网络安全保险、赔偿和监管合规框架。

保险市场可能在建立人工智能责任方面发挥重要作用。 一些研究表明,人工智能造成的某些伤害最终可能通过将保险和侵权法结合起来的混合补偿计划来解决。

将人工智能融入运营决策的公司应该在数字转型中考虑诉讼风险。如果不这样做,可能会使这些组织面临声誉损害、监管处罚和民事责任。

道德责任与法律责任

在许多情况下,法律责任与道德责任并不相同。人工智能治理辩论包括以下原则:

  • 公平性
  • 透明度
  • 问责制
  • 可解释性

然而,法律义务并不自动源于道德考虑。

最近的工作 提出了在多行为者人工智能生态系统中分配责任以及构建将设计决策与法律结果联系起来的证据规则的概念框架。因此,旨在促进创新的人工智能法律体系也必须考虑到新技术对受害者的影响。这一平衡将塑造人工智能治理的未来。

人工智能时代的疏忽未来

人工智能挑战了这样一种假设:决策权始终归于可识别的人类行为者。但是,法律责任最终仍然归于人类。

在不久的将来,法院不太可能将人工智能系统视为法律实体。相反,预计开发、部署和从人工智能系统中获利的个人将被追究责任。

随着人工智能系统变得更加独立,混合模型可能会演变,结合各种形式的监管:

  1. 疏忽原则
  2. 产品责任学说
  3. 监管监督
  4. 基于保险的补偿计划

人工智能不会取代普通法概念,而是会迫使法院阐明这些概念。从原告的角度来看,问题是:发生了什么。

谁是风险创造者?谁可以最好地防止风险伤害个人?

在立法机构采取全面技术之前,法院将将现有的法律原则应用于新技术。神经网络可能是新鲜的,但疏忽并非如此。

卡农克里弗是Bergeron Clifford的一名原告人身伤害律师。能够对人们的生活产生有意义的影响是卡农从事伤害法的动力。对于卡农来说,客户获得公平补偿的权利是他致力于改善受伤人员及其家属生活的核心。卡农最初在Bergeron Clifford担任夏季学生,学习伤害法的各个方面。他然后在我们的公司完成了他的文章,然后在2020年被召入安大略省律师协会。他拥有渥太华大学的社会科学学士学位。他以荣誉学位从英格兰德文郡的埃克塞特大学毕业,获得了法学学士学位,并且还拥有来自英格兰伦敦法律大学的冲突解决法学硕士学位,成绩为优等。他目前正在兼职学习商业管理博士学位,重点研究法律、商业和技术的交叉点。