Anderson 视角
人工智能是否需要像核能一样的社会保险?

美国政府经常在新技术领域进行干预,当保险公司感到害怕时,这似乎很可能再次发生在人工智能领域;但是,这次风险是否有所不同?
特征当前的美国政府已经多次表明其致力于确保美国在开发人工智能系统方面享有与中国相同的自由,就像中国在这里所描述的那样。由于美国目前正在采取强有力的行政立场,并以相当重的手挥舞其影响力,最近的事件表明,其人工智能政策可能会在未来被依赖于美国的国家所效仿。
因此,观察美国如何应对众所周知的向国会的请求将会很有趣,这个请求是由主要保险公司提出的,要求允许他们提供不包括人工智能系统相关责任的保险政策,例如聊天机器人和代理人工智能。
根据上述FT报告,保险集团AIG、Great American和WR Berkley是众多寻求允许此类排除的公司之一。
FT指出,WR Berkley已要求排除任何涉及“任何实际或声称的使用”人工智能,或任何包含人工智能的服务或产品的索赔。
你不能起诉狗
这是一个可预见的发展:与美国政府寻求消除美国人工智能开发文化中的繁文缛节以便与中国在同一赛道上竞争同时,事实上,著名的人工智能系统很少在权利明确的材料上进行训练,这导致了来自迪士尼和环球等有影响力的玩家的一系列诉讼。
美国2025年的人工智能行动计划(上述链接)几乎没有提到版权持有者;该国似乎要像中国一样埋葬这个问题,其决心强加联邦自由放任于不同意的州。
然而,FT报告中概述的担忧可能会超出版权问题,在人工智能系统具有代理控制的基础设施或其他基本系统(如股票市场机制)时。
美国司法机构已经基本确定,人工智能将对其错误负责,其所有者将对其冒险行为负责——就像狗主人将对其狗造成的任何伤害负责一样。这对于保险公司来说是一个可怕的前景,它们担心的是人工智能可能会以潜在危害的方式“产生幻觉”。
确保建设
然而,保险行业的这种可预见的抱怨在核工业、太空和航空、疫苗开发等领域有着相当的历史先例——在这些领域,美国政府决定,政府担保和保险覆盖对于重要的新技术是必要的,以免将进步让给那些国家(如前苏联或法国),在那里,基础设施的国家支持保险更为常见。
核能
例如,在1957年,国会通过《普赖斯-安德森法案》限制了核工业的责任,因为已经很明显,没有政府的后盾,私人保险公司将永远不会支持原子能。
该法律限制了公用事业和反应堆制造商可以被起诉的金额,并建立了一个赔偿机制来支付事故费用。它自那时以来已经被多次续期,最近一次是在今年的支出法案中延长至2065年。
航空航天
此外,美国政府通过商业航天发射法案保护商业航天发射公司免受灾难性损失的影响,超过私人保险公司愿意承保的金额,目前最高限额为27亿美元。
这种次要的安全网,从未被调用,允许SpaceX和Blue Origin等公司开发航天计划,而不受无法承保的失败威胁。
恐怖主义
不出所料,在9/11事件之后,保险行业以前曾在一般政策的条款下承保此类风险,但现在不愿意承保由于恐怖主义和战争造成的损失。在这种情况下,美国联邦政府像往常一样通过扩大保险范围作为联邦义务来应对短期至中期的需求。
2002年的《恐怖主义风险保险法案》创建了一个联邦保险后盾,用于支付由于恐怖主义造成的损失和索赔,涵盖了扣除额以上的损失的大部分——该法案已被多次续期,包括在特朗普政府期间。
疫苗开发
就在疫苗开发和传播开始对全球健康产生广泛影响的1970年代和1980年代,针对制造商的诉讼潮增加了制造商的责任成本。
为了避免公共卫生危机,国会创建了国家儿童疫苗伤害法案,将保险索赔转移到一个专门的疫苗法院,并在满足安全标准的同时,保护制造商免受大部分责任,从而允许创新继续进行,同时从政府池中为患者提供补偿。
这种方法后来得到了最高法院的支持,并在COVID-19大流行期间在PREP法案下得到了扩展,该法案豁免了对批准的对策的制造商责任。
人工智能是否是一个不同的案例?
因此,国会已经多次介入,以打破创新瓶颈,当保险公司犹豫是否要承保公共风险领域。
然而,尽管很难认为人工智能的风险超过核系统的风险,保险集团正在辩称,生成性人工智能引入了系统性风险,在这种情况下,负面后果可能是系统正常运行的“固有”部分,而不是违规、人为错误、攻击或其他更熟悉的意外或不幸事件的结果。
人工智能先驱和图灵奖得主Yoshua Bengio在十一月初表示,人工智能公司应该被法律强制要求拥有责任保险,以覆盖“存在风险”。
然而,历史表明,强迫人工智能公司在没有政府援助的情况下自我保险并不是前进的可能道路。尽管OpenAI的CEO Sam Altman最近在政府支持的提议上进行了回应,但当前美国政府的趋势表明,它不会将人工智能的命运留给开放市场。
可能的措施
一种可能的前进方式是联邦责任上限,即1957年的普赖斯-安德森法案和疫苗法案,以“人工智能赔偿法案”的形式重新审视,限制公司因某些人工智能相关损害而承担的责任。
同时,还可以建立一个联邦赔偿基金,用于人工智能相关的伤害,类似于以前的疫苗伤害基金,这种方法可以保护公司免受“最坏情况”的诉讼场景,就像疫苗和核工业在以前的几十年中被保护一样。
或者,可以采用TRIA模型,适应人工智能目的,采用政府人工智能保险后盾的形式。这将迫使保险公司提供人工智能责任保险,但联邦政府将同意支付超过某个门槛的损失的80-90%。
也许最不吸引人的选择——部分是因为它可能会在政府的某些部门和选民中引起“社会主义”政策的批评——将是直接联邦保险或赔偿,其中政府是直接的保险公司。
这种国家参与的水平通常保留用于新兴行业的关键时期(例如核工业),或用于战时管理场景。
根据最近的行为,似乎很可能在任何情况下,美国政府都将推动州级监管覆盖,以防止各个州制定可能在州级创建独特保险场景的法律,从而破坏更广泛的联邦倡议。
结论
反对人工智能获得与银行相同的“救助”地位的人,不太可能接受对人工智能保险难题的政府支持的解决方案。
然而,很明显,当前的美国政府将人工智能视为“必不可少的基础设施”,尽管它越来越多地出错或未能达到预期。
可以认为,对人工智能进行广泛的国家参与保险相当于“预先救助”——在市场兴奋和投资者狂热被对泡沫破裂的恐惧和公众对人工智能的同时恐惧和着迷所笼罩的时期,这是一个难以销售的观点。
首次发布于2025年11月24日












