人工智能是否需要与核能相同的社会化保险?
当保险公司对重大新技术领域感到恐慌时,美国政府常常会介入,而这种情况似乎很可能在人工智能领域再次发生;但这次的风险是否有所不同? 专题 现任美国政府已多次表明其致力于确保中国在开发人工智能系统时所享有的那种自由放任的自由在美国得到映照。由于美国目前正采取强有力的行政立场,并相当强势地运用其影响力,近期事件表明,其人工智能政策可能会在未来依赖与美国良好关系的国家的立法中得到呼应。因此,观察美国将如何回应主要保险公司向国会提出的备受报道的请求将会很有趣——他们请求被允许提供排除承保与聊天机器人和智能体人工智能等人工智能系统相关责任的保单。根据上面链接的英国《金融时报》报道,美国国际集团、Great American 和 WR Berkley 等保险集团是寻求允许此类除外责任的公司之一。英国《金融时报》指出,WR Berkley 要求一项除外责任,该条款将禁止涉及人工智能“任何实际或声称的使用”,或任何“包含”人工智能的服务或产品的索赔。你不能起诉狗这是一个可以预见的发展:在美国政府寻求消除美国人工智能发展文化中的繁文缛节,以便能在公平竞争环境中与中国竞争的同时,有影响力的大型公司(如迪士尼和环球)因知名人工智能系统很少基于已获权利许可的材料进行训练这一事实,而提起的诉讼日益增多。美国2025年人工智能行动计划(上面已链接)很少提及版权持有者;该国似乎倾向于以中国式的方式掩盖这个问题,这似乎也反映在其决心将联邦层面的自由放任政策强加于持异议的州。然而,根据英国《金融时报》报道中概述的担忧,对于拥有对基础设施或其他基本系统(如股市机制)智能体控制权的人工智能系统,其问题可能超出版权范畴。美国司法界已大致裁定,人工智能将为其错误负责,其所有者需为其意外负责——就像狗主人需对其狗造成的任何伤害负责一样。这对保险公司来说是个严峻的前景,他们——除了其他问题外——还担心生成式人工智能可能以具有破坏性的方式产生幻觉。有保障的建设然而,保险业这种可预见的抱怨浪潮,在核工业、航空航天、疫苗开发等领域已有相当多的历史先例——在这些情况下,美国认定政府的保证和保险覆盖对于重要的新技术至关重要,以免将进步拱手让给那些国家支持的基建保险更为普遍的国家(如前苏联或法国)。核能例如,1957年,国会通过《普莱斯-安德森》法案限制了核工业的责任上限,因为当时已清楚,如果没有政府作为后盾,私营保险公司永远不会支持原子能。该法律限制了公用事业公司和反应堆制造商可能被起诉的赔偿金额,并设立了支付机制以覆盖事故损失。此后该法案被多次续期,最近一次是在今年的支出法案中,将其有效期延长至2065年。航空航天此外,美国政府通过承保超出私营保险公司承保范围的损失,保护商业太空发射公司免于灾难性责任。根据《商业太空发射法案》,发射提供商必须购买固定金额的保险,超出部分则由联邦政府提供赔偿,目前上限为27亿美元。这个尚未被启用过的二级安全网,使得SpaceX和蓝色起源等公司能够开发太空计划,而不会受到无法投保的失败威胁的束缚。恐怖主义不出所料,在9/11事件之后,此前在一般保单条款下承保此类风险的保险业,不再愿意承保因恐怖主义和战争造成的损失。在这种情况下,与往常一样,美国联邦政府作出回应,在中短期内将承保范围作为一项联邦义务予以扩展。2002年的《恐怖主义风险保险法案》为恐怖主义造成的损失和索赔创建了联邦保险后盾,覆盖了超过规定免赔额的大部分恐怖主义损失——该法案已被多次续期,包括在特朗普政府时期。疫苗开发就在疫苗开发和推广在20世纪70年代和80年代开始对全球健康产生广泛影响之际,针对制造商的诉讼激增显著增加了制造商的赔偿责任成本。为避免公共卫生危机,国会制定了《国家儿童疫苗伤害法案》,将保险索赔转至专门的疫苗法庭,并在满足安全标准的前提下,使制造商免于承担大部分责任,从而允许创新继续进行,同时通过政府基金池对患者进行补偿。该方法后来得到最高法院的支持,并在COVID-19大流行期间根据《PREP法案》得到扩展,该法案免除了制造商对已批准应对措施的责任。人工智能是不同类型的案例吗?因此,当保险公司不愿承保公共风险领域时,国会已多次介入以打破创新瓶颈。然而,尽管很难辩称人工智能的风险超过核系统,但保险集团认为,生成式人工智能引入了系统性风险,其不利后果可能“内生于”系统的正常运作,而非源于破坏、人为错误、攻击或其他更常见的事故或意外。人工智能先驱和图灵奖得主 Yoshua Bengio 在11月初表示,应通过法律强制人工智能公司购买责任保险,以覆盖“生存风险”。然而,历史表明,在没有政府援助的情况下强迫人工智能公司自行投保,不太可能是未来的道路。尽管OpenAI的首席执行官 Sam Altman 最近收回了关于人工智能应在必要时获得银行式政府救助的建议,但现任美国政府的趋势表明,它不会将人工智能的命运完全交给开放市场。可能的措施一种可能的前进方向是联邦责任上限——以“人工智能赔偿法案”的形式重新审视1957年的《普莱斯-安德森法案》以及疫苗法案,限制公司对某些人工智能相关损害的赔偿责任。与针对人工智能相关伤害的联邦赔偿基金(类似于早期的疫苗伤害基金)相结合,这种方法可以保护公司免受“最坏情况”诉讼场景的影响,就像过去几十年疫苗和核工业受到保护一样。或者,可以调整TRIA模式用于此目的,以政府人工智能保险后盾的形式。这将强制保险公司提供人工智能责任保险,但联邦政府同意支付超过特定阈值损失的80-90%。或许最不具吸引力的选择——部分原因是它可能会引发政府某些部门和选民对“社会主义”政策的批评——是直接的联邦保险或赔偿,即政府成为直接保险人。这种程度的国家参与通常只保留给关键行业(如核工业)发展过程中的有限时期,或用于战时管理场景。基于近期的行为,无论如何,美国政府似乎很可能会推动在州一级进行监管覆盖,以防止各州制定可能在各州层面创造独特保险场景的法律,从而破坏更广泛的联邦倡议。结论那些反对人工智能可能获得与银行相同“救助”地位的人,不太可能接受由政府大力支持的方案来解决人工智能的保险难题。然而,很明显,现任美国政府将人工智能视为“关键基础设施”,尽管其出错或达不到预期的趋势日益增长。有人可能会争辩说,国家广泛参与人工智能保险无异于“预先救助”——在一个市场兴奋和投资者狂热被日益增长的泡沫破裂恐惧所笼罩,而公众对生成式人工智能既恐惧又着迷的时期,这是一个难以推销的想法。 首次发布时间:2025年11月24日,星期一