存根 人工智能和法律身份 - Unite.AI
关注我们.

思想领袖

人工智能与法律身份

mm

发布时间

 on

本文重点讨论赋予人工智能(AI)法律主体地位的问题,特别是在民法的基础上。 法律身份在此被定义为法律能力术语的一个组成部分; 然而,这并不意味着接受道德主体性与道德人格相同。 法律身份是一种复杂的属性,可以为某些主体所识别或分配给其他主体。

我认为这个属性是分级的、离散的、不连续的、多方面的、可变的。 这意味着它可以包含或多或少的不同类型的要素(例如,义务、权利、能力等),在大多数情况下,立法者可以添加或删除这些要素; 一般认为人权是不可剥夺的,但人权是个例外。

当今,人类正面临着一种技术模式被另一种技术模式替代的社会转型时期。 “智能”机器和软件学习速度相当快; 人工智能系统越来越有能力在许多活动中取代人类。 随着人工智能技术的进步,越来越频繁出现的问题之一是人工智能系统作为法律主体的认可,因为它们已经达到了完全自主决策并可能体现“主观意志”的水平。 这个问题是在 20 世纪假设提出的。 在 21 世纪,科学争论正在稳步发展,随着每次将新的人工智能模型引入实践,科学争论都达到了另一个极端,例如街道上自动驾驶汽车的出现或具有一套新系统的机器人的出现。功能。

确定人工智能地位的法律问题具有一般理论性质,这是由于客观上不可能预测开发人工智能新模型的所有可能结果而造成的。 但人工智能系统(AI系统)已经是某些社会关系的实际参与者,这就需要建立“标杆”,即解决该领域的根本性问题,以达到立法巩固的目的,从而减少社会关系中的不确定性。预测未来涉及人工智能系统的关系的发展。

文章标题中提到的所谓人工智能作为研究对象的问题,当然并不涵盖所有人工智能系统,包括许多不自称是法人实体的“电子助手”。 它们的功能集是有限的,并且它们代表了狭隘(弱)的人工智能。 我们更愿意提及“智能机器”(网络物理智能系统)和虚拟智能系统的生成模型,它们越来越接近与人类智能相当的通用(强大)人工智能,并且在未来甚至超过人类智能。

到 2023 年,创建强人工智能的问题已被多模态神经网络迫切提出,例如 ChatGPT, 达尔-e等,其智力能力正在通过增加参数的数量(感知模式,包括人类无法访问的模式)以及使用大量人类无法物理处理的数据进行训练来提高。 例如,神经网络的多模态生成模型可以生成图像、文学和科学文本,但并不总是能够区分它们是由人类还是人工智能系统创建的。

IT专家强调了两个质的飞跃:速度飞跃(全新模式出现的频率),现在以月而不是年来衡量,以及波动性飞跃(无法准确预测该领域可能发生的情况)人工智能甚至到今年年底)。 ChatGPT-3模型(OpenAI的第三代自然语言处理算法)于2020年推出,可以处理文本,而制造商于4年2023月推出的下一代模型ChatGPT-XNUMX则无法“工作”不仅可以使用文本,还可以使用图像,下一代模型正在学习,并且将具有更多能力。

几年前,人们认为至少在几十年内就会出现技术奇点的预期时刻,即机器的发展变得几乎无法控制和不可逆转,从而极大地改变人类文明,但现在越来越多的研究人员相信它可以发生快多了。 这意味着所谓强人工智能的出现,它将表现出与人类智能相当的能力,并能够解决类似甚至更广泛的任务。 与弱人工智能不同,强人工智能将具有意识,而智能系统中意识出现的必要条件之一是能够执行多模态行为,整合来自不同感官模态(文本、图像、视频、声音等)的数据。 ),将不同形态的信息与现实“连接”起来,创造出人类固有的完整的整体“世界隐喻”。

2023年XNUMX月,千余名人工智能领域的研究人员、IT专家、企业家签署了 生命未来研究所网站发表公开信是一家美国研究中心,专门研究人类的生存风险。 这封信呼吁暂停新的生成多模态神经网络模型的训练,因为“ChatGPT革命”导致人工智能发展速度急剧加快,缺乏统一的安全协议和法律真空大大增加了风险。 人们还指出,人工智能模型已经开发出了开发者本意之外的无法解释的功能,并且此类功能的份额可能会逐渐增加。 此外,这样的技术革命极大地促进了智能设备的创造,这些设备将变得普遍,而新一代、在与人工智能助手不断交流中长大的现代孩子将与前几代人有很大不同。

是否有可能阻碍人工智能的发展,使人类适应新的条件? 从理论上讲,如果所有州都通过国家立法来促进这一点,那就是这样。 他们会这样做吗? 根据已公布的国家战略,他们不会; 相反,每个州的目标都是赢得竞争(保持领先地位或缩小差距)。

人工智能的能力吸引了企业家,因此企业大力投资于新的开发,每个新模型的成功都推动了这一进程。 考虑到私人和国家对发展的投资,每年的投资都在增长; 全球人工智能解决方案市场估计达数千亿美元。 据预测,特别是欧洲议会3年2022月11日《关于数字时代的人工智能》决议中的内容,到2030年人工智能对全球经济的贡献将超过XNUMX万亿欧元。

以实践为导向的业务导致人工智能技术在经济各领域的落地。 人工智能应用于采掘业和加工业(冶金、燃料和化学工业、工程、金属加工等)。 它用于预测开发产品的效率、自动化装配线、减少废品、改善物流并防止停机。

人工智能在交通领域的应用包括自动驾驶汽车和通过预测交通流量来优化路线,以及通过预防危险情况来确保安全。 自动驾驶汽车进入公共道路是世界各地议会激烈争论的一个问题。

在银行业,人工智能系统几乎完全取代了人类来评估借款人的信用度; 它们越来越多地被用于开发新的银行产品和增强银行交易的安全性。

人工智能技术不仅正在接管商业领域,还正在接管社会领域:医疗保健、教育和就业。 人工智能在医学中的应用可以实现更好的诊断、新药的开发以及机器人辅助手术; 在教育领域,它可以实现个性化课程、对学生和教师专业知识的自动评估。

如今,由于平台就业呈指数级增长,就业正在日益发生变化。 根据国际劳工组织的数据,全球范围内通过人工智能增强的数字就业平台工作的人数比例正在稳步增加。 平台就业并不是劳动力转型的唯一组成部分; 生产自动化水平的不断提高也产生了重大影响。 根据国际机器人联合会的数据,全球工业机器人的数量持续增加,其中机器人化速度最快的地区是亚洲,主要是中国和日本。

事实上,政府对人工智能分析用于生产管理、诊断分析和预测的数据的能力非常感兴趣。 人工智能正在公共管理领域得到应用。 如今,创建公共服务数字平台以及政府机构决策相关许多流程自动化的努力正在加强。

“人工人格”和“人工社会性”的概念在公众话语中被更频繁地提及; 这表明智能系统的开发和实施已从纯粹的技术领域转向研究将其融入人道主义和社会文化活动的各种手段。

综上所述,可以说人工智能正在越来越深入地融入人们的生活。 未来几年,人工智能系统在我们生活中的存在将变得更加明显; 它在工作环境、公共空间、服务和家庭中都会增加。 人工智能将通过各种流程的智能自动化,越来越多地提供更高效的结果,从而为个人、社区和国家创造新的机遇,也带来新的威胁。

随着智力水平的提高,人工智能系统将不可避免地成为社会不可或缺的一部分; 人们必须与他们共存。 这种共生关系将涉及人类和“智能”机器之间的合作,根据诺贝尔奖获得者经济学家 J. Stiglitz 的说法,这将导致文明的转型(Stiglitz,2017)。 即使在今天,一些律师认为,“为了增强人类福祉,当人类和人工智能执行相同的任务时,法律不应区分人类和人工智能的活动”(Abbott,2020)。 还应该考虑的是,人形机器人的生理学越来越类似于人类,其发展将导致它们作为社会伙伴扮演性别角色(Karnouskos,2022)。

各国必须调整其立法以适应不断变化的社会关系:世界各地旨在规范涉及人工智能系统的关系的法律数量正在迅速增长。 根据斯坦福大学《2023 年人工智能指数报告》,虽然 2016 年仅通过了一项法律,但 12 年通过了 2018 项法律,18 年有 2021 项,37 年有 2022 项。这促使联合国明确了人工智能的道德立场。在全球范围内使用人工智能。 2022 年 XNUMX 月,发布了一份文件,其中包含人工智能的伦理使用原则,该文件基于一年前联合国教科文组织大会通过的《人工智能伦理建议》。 然而,人工智能技术的发展和落地步伐远远领先于相关立法变革的步伐。

人工智能法律能力的基本概念

考虑到可能赋予知识系统法律能力的概念,应该承认,任何这些方法的实施都需要对现有的一般法律理论进行根本性的重建,并对某些法律部门的许多条款进行修正。 需要强调的是,不同观点的支持者经常使用“电子人”一词,因此,使用该术语并不能在不阅读作品本身的情况下确定作品作者是哪个概念的支持者。

科学界最激进、显然也是最不受欢迎的方法是人工智能个人法律能力的概念。 这种方法的支持者提出了“完全包容性”(极端包容主义)的理念,这意味着赋予人工智能系统类似于人类的法律地位,并承认其自身利益(Mulgan,2019),考虑到其社会意义或社会意义内容(社会效价)。 后者是由于“机器人的物理体现往往使人类对待这个移动的物体就好像它是活的一样”这一事实造成的。 当机器人具有拟人化特征时,这一点更加明显,因为与人体的相似性使人们开始投射情感、愉悦感、痛苦感和关怀感,以及建立关系的愿望”(Avila Negri,2021)。 将人类情感投射到无生命物体上并不是什么新鲜事,可以追溯到人类历史,但当应用于机器人时,它会带来许多影响(Balkin,2015)。

法律确认该职位的先决条件通常如下:

– 人工智能系统正在达到与人类认知功能相当的水平;

– 增加机器人与人类之间的相似程度;

– 人性,保护智能系统免受潜在的“痛苦”。

从强制性要求清单可以看出,这些要求都具有高度的理论化和主观评价。 特别是,拟人化机器人(android)的创造趋势是由人们的日常心理和社会需求驱动的,这些人们在与相似主题的“陪伴”中感到舒适。 一些现代机器人由于其执行的功能而具有其他限制性特性。 其中包括“可重复使用”的快递机器人,其优先考虑坚固的结构和有效的重量分配。 在这种情况下,最后一个先决条件就发挥了作用,因为人类大脑中与机器人形成了情感联系,类似于宠物与其主人之间的情感联系(Grin,2018)。

人工智能系统和人类的法律地位“全面包容”的理念在一些法律学者的著作中有所体现。 由于宪法和部门立法没有对人格作出法律定义,宪法和法律意义上的“人格”概念在理论上可以进行广泛的解释。 在这种情况下,个人将包括认知能力被认为足够发达的任何智力持有者。 AV Nechkin 认为,这种方法的逻辑是,人类与其他生物的本质区别在于其独特的高度发达的智能(Nechkin,2020)。 对人工智能系统权利的认可似乎是法律体系演变的下一步,法律体系正在逐渐将法律认可范围扩大到以前受到歧视的人,今天也为非人类提供了机会(Hellers,2021)。

如果人工智能系统被授予这样的法律地位,这种方法的支持者认为,在既定的宪法和法律解释中,不授予此类系统公民的字面权利,而是授予其类似物和某些带有一些偏差的公民权利是适当的。 这一立场是基于人类和机器人之间客观的生物学差异。 例如,承认人工智能系统的生命权是没有意义的,因为它不是生物学意义上的生命。 与公民的权利相比,人工智能系统的权利、自由和义务应该是次要的; 该规定确立了人工智能在法律意义上作为人类创造物的衍生性质。

人工智能系统潜在的宪法权利和自由包括自由权、自我完善权(学习和自学)、隐私权(保护软件免受第三方任意干扰)、言论自由、创作自由,承认AI系统版权和有限产权。 还可以列出人工智能的具体权利,例如获得电力来源的权利。

至于人工智能系统的职责,建议将阿西莫夫制定的著名机器人三定律在宪法上予以巩固:不伤害他人,以己不作为防止伤害; 服从某人发出的所有命令,旨在伤害他人的命令除外; 照顾好自己的安全,除了前两个案例(Naumov 和 Arkhipov,2017)。 在这种情况下,民事和行政法的规则将体现一些其他义务。

由于多种原因,人工智能个人法律能力的概念几乎不可能被合法化。

首先,以意识和自我意识存在为依据的法律行为能力认定标准抽象; 它允许许多犯罪行为、滥用法律并引发社会和政治问题,成为社会分层的另一个原因。 这一想法在 S. Chopra 和 L. White 的工作中得到了详细发展,他们认为意识和自我意识并不是承认人工智能系统作为法律主体的必要和/或充分条件。 在法律现实中,完全有意识的个人,例如儿童(或罗马法中的奴隶),被剥夺或限制了法律行为能力。 同时,患有严重精神障碍的人,包括被宣布丧失行为能力或昏迷等的人,在第一种情况下客观上无法保持意识,仍然是法律主体(尽管形式有限),而在第二种情况下,他们具有同样的完全法律行为能力,其法律地位没有发生重大变化。 上述意识和自我意识标准的潜在巩固将使任意剥夺公民的法律行为能力成为可能。

其次,人工智能系统将无法在既定的法律意义上行使其权利和义务,因为它们是基于先前编写的程序运行的,而具有法律意义的决定应该基于一个人的主观道德选择(Morhat,2018b) ,他们的意志的直接表达。 这样一个“人”的所有道德态度、情感和欲望都源自人类智慧(Uzhov,2017)。 人工智能系统的自主性是指在没有外部人为控制或有针对性的人类影响的情况下独立做出决策和实施决策的能力(Musina,2023),但它并不全面。 如今,人工智能只能基于人们的想法和道德态度做出“准自主决策”。 就此而言,只能考虑人工智能系统的“行动-操作”,不包括对人工智能行为进行真正的道德评估的能力(Petiev,2022)。

第三,对人工智能个人法律能力的承认(特别是以将其等同于自然人地位的形式)导致自罗马法和罗马法以来形成的既定法律秩序和法律传统的破坏性变化。提出了一些人权领域根本上无法解决的哲学和法律问题。 法律作为一种社会规范体系和社会现象,是在适当考虑人的能力并确保人的利益的情况下制定的。 既定的以人类为中心的规范性规定体系,国际上关于内部权利概念的共识,如果建立“极端包容主义”的做法,将在法律和事实上被视为无效(Dremlyuga&Dremlyuga,2019)。 因此,赋予人工智能系统,特别是“智能”机器人法人地位,可能不是解决现有问题的办法,而是加剧社会政治矛盾的潘多拉魔盒(Solaiman,2017)。

另一点是,这一概念的支持者的作品通常只提到机器人,即与物理世界中的人交互的网络物理人工智能系统,而排除虚拟系统,尽管强大的人工智能如果出现,将也可以以虚拟的形式体现。

基于上述论点,人工智能系统的个人法律能力概念在现行法律秩序下应被认为在法律上是不可能的。

人工智能系统的集体人格概念得到了这种法律能力的支持者的大力支持。 这种方法的主要优点是,它将抽象概念和价值判断(意识、自我意识、理性、道德等)排除在法律工作之外。 该方法基于法律虚构在人工智能中的应用。

至于法人实体,已经存在“可以适应解决人工智能法律地位困境的先进监管方法”(Hárs,2022)。

这一概念并不意味着人工智能系统实际上被赋予了自然人的法律能力,而只是现有法人实体制度的延伸,这表明应该创建一种新的法人实体类别,称为控制论“电子有机体”。 这种做法使得更适合考虑不符合现代狭义概念的法人实体,特别是其取得和行使民事权利、承担民事责任、代表自己在法庭上担任原告和被告的义务。 ),但在更广泛的意义上,它代表除自然人以外的任何结构的法人实体,以法律规定的形式赋予权利和义务。 因此,这种方法的支持者建议将法人实体视为罗马法下的主体实体(理想实体)。

人工智能系统与法人实体的相似之处体现在它们被赋予法律行为能力的方式——通过法人实体的强制国家登记。 法人只有经过规定的登记程序,才被赋予法律地位和法律行为能力,即成为法律主体。 该模型在法律领域继续讨论人工智能系统的法律能力,排除在没有内在先决条件的情况下以其他(法律外)理由对法律能力的承认,而一个人出生时就被承认为法律主体。

这一概念的优点是将信息输入相关国家登记册(类似于法人实体的国家登记册)的要求扩展到人工智能系统,作为授予其法律能力的先决条件。 该方法实现了将所有法人实体系统化并创建单一数据库的重要功能,这对于国家当局控制和监督(例如在税收领域)以及这些实体的潜在交易对手都是必要的。

任何司法管辖区的法人实体的权利范围通常小于自然人的权利范围; 因此,利用这种结构授予人工智能法律能力与授予其先前概念的支持者提出的一些权利无关。

当将法律拟制技术应用于法人实体时,假设法人实体的行为伴随着自然人的联合体,这些自然人通过法人的治理机构形成“意志”并行使“意志”。

换句话说,法人实体是人造(抽象)单位,旨在满足作为其创始人或控制者的自然人的利益。 同样,人工智能系统的创建是为了满足某些个人(开发商、运营商、所有者)的需求。 使用或编程人工智能系统的自然人受到他或她自己的利益的引导,而该系统在外部环境中代表了他或她的利益。

从理论上评估这种监管模式时,我们不应忘记,法人实体与人工智能系统的地位之间的完全类比是不可能的。 如上所述,法人实体的所有具有法律意义的行为均由直接做出这些决定的自然人伴随。 法人的意志始终由自然人的意志决定并完全受制于自然人的意志。 因此,法人实体不能在没有自然人意愿的情况下运作。 对于人工智能系统来说,客观上已经存在一个自主性的问题,即从直接创建系统的那一刻起,就能够在没有自然人干预的情况下做出决策。

鉴于上述概念的固有局限性,大量研究人员提出了自己的方法来解决人工智能系统的法律地位问题。 鲁汶大学研究人员 DM Mocanu 表示,传统上,它们可以归因于“梯度法律能力”概念的不同变体,他暗示人工智能系统具有有限或部分的法律地位和法律能力,但有保留:之所以使用“梯度”一词,是因为它不仅是在法律地位中包含或不包含某些权利和义务,而且是在最低限度内形成一套这种权利和义务,以及只承认这种法律行为能力。出于某些目的。 然后,这个概念的两种主要类型可能包括证明合理性的方法:

1)赋予人工智能系统特殊的法律地位,并将“电子人”作为全新的法律主体类别纳入法律秩序;

2)通过引入“电子代理人”类别,赋予人工智能系统在民事法律关系框架内有限的法律地位和法律能力。

鉴于没有本体论依据将人工智能视为法律主体,这一概念中不同方法的支持者的立场可以统一; 然而,在具体情况下,已经存在功能上的理由赋予人工智能系统一定的权利和义务,这“证明是促进应受法律保护的个人和公共利益的最佳方式”,赋予这些系统“有限和狭隘的权利”。 “法人实体的形式”。

通过设立单独的“电子人”法律机构来赋予人工智能系统特殊的法律地位,对于详细解释和规制由此产生的关系具有显着优势:

– 法人实体、自然人与人工智能系统之间;

– 人工智能系统及其开发者(运营商、所有者)之间;

– 民事法律关系中第三方与人工智能系统之间的关系。

在这个法律框架下,人工智能系统将与其开发者、所有者或运营商分开控制和管理。 莫哈特总理在定义“电子人”概念时,重点关注了上述法律拟制方法的运用以及人工智能特定模型的功能方向:“电子人”是一种技术性的、法律性的图像(其具有法律虚构和法律实体的一些特征),反映和实施人工智能系统有条件的特定法律能力,该能力根据其预期功能或目的和能力而有所不同。

与人工智能系统中的集体人的概念类似,这种方法涉及保留“电子人”的特殊登记册。 对“电子人”的权利和义务的详细、清晰的描述是国家和此类人工智能系统的所有者进一步控制的基础。 明确界定的权力范围、缩小的法律地位范围以及“电子人”的法律能力,将确保这个“人”不会因潜在的独立决策和不断的自我学习而超越其程序。

这种做法意味着人工智能在其创造阶段是软件开发者的知识产权,经过适当的认证和国家登记后可以被授予法人实体的权利,但“电子人”的法律地位和法律能力”将被保留。

对既定法律秩序实施全新的制度将产生严重的法律后果,需要至少在宪法和民法领域进行全面的立法改革。 研究者合理地指出,考虑到在立法中引入新的人的困难,在采用“电子人”概念时应谨慎,因为法律意义上“人”概念的扩展可能会导致对电子人的限制。现有法律关系主体的权利和合法利益(Bryson et al.,2017)。 考虑这些方面似乎是不可能的,因为自然人、法人实体和公法实体的法律能力是国家和法律理论几个世纪演变的结果。

梯度法律能力概念中的第二种方法是“电子代理人”的法律概念,主要与人工智能系统作为交易对手之间的通信手段和在线商务工具的广泛使用有关。 这种方法可以称为妥协,因为它承认不可能在为人工智能建立某些(具有社会意义的)权利和义务的同时,授予人工智能系统成熟的法律主体地位。 换句话说,“电子代理人”的概念使人工智能的准主体性合法化。 “准法律主体”一词应理解为某种法律现象,其中某些法律能力要素在官方或理论层面上得到承认,但不可能确立完全法律主体的地位。

这种方法的支持者强调人工智能系统的功能特征,这些特征使它们既可以充当法律关系中的被动工具,也可以充当主动参与者,有可能为系统所有者独立生成具有法律意义的合同。 因此,人工智能系统可以在代理关系的框架内有条件地考虑。 在创建(或注册)人工智能系统时,“电子代理人”活动的发起者与其签订虚拟单方代理协议,“电子代理人”被授予多项权力,并可以行使这些权力。执行对委托人来说重要的法律行动。

来源:

  • R. McLay,“管理人工智能的崛起”,2018 年
  • Bertolini A. 和 Episcopo F.,2022 年,“机器人和人工智能作为法律主体? 解开本体论和功能视角”
  • Alekseev, A. Yu.、Alekseeva, EA、Emelyanova, NN (2023)。 “社会和政治沟通中的人造人格。 人工社会”
  • “Sanfilippo A 综合征实验室诊断的特殊性” NS Trofimova、NV Olkhovich、NG Gorovenko
  • Shutkin, SI,2020,“人工智能的法律能力可能吗? 知识产权工作”
  • Ladenkov, N. Ye.,2021,“赋予人工智能法律能力的模型”
  • Bertolini, A. 和 Episcopo, F.,2021 年,“专家组关于人工智能和其他新兴数字技术责任的报告:批判性评估”
  • Morkhat,PM,2018,“关于人工智能一词的法律定义问题”

Anton Vokrug 是一位来自乌克兰的 IT 企业家、思想家和人工智能研究员。 最近,他成功出售了自己的一家IT公司。 目前,他担任合伙人兼区块链业务顾问 Dexola.com.