Andersonの視点
AIは核エネルギーと同様の社会保険を必要とするか?

米国は、保険会社が怯んだ主要な新技術分野に頻繁に介入しており、これはAIの場合も同様であると思われるが、リスクは今回異なるか?
特集 現在の米国政権は、中国がAIシステムの開発で享受している自由主義を米国でも反映させることに繰り返しコミットメントを示している。米国は強い行政府の立場を取り、かなり強い手で影響力を揮っているため、最近の出来事から、米国のAI政策は将来的に米国と良好な関係を持つ国の立法に反映される可能性がある。
したがって、米国が広く報道された議会への要請にどのように対応するかを見てみるのは興味深いことになるだろう。この要請は、チャットボットやエージェントAIなどのAIシステムに関連する責任を除外するポリシーを提供することを保険会社に求めるものである。
FTの報告によると、AIG、Great American、WR Berkleyを含む複数の保険グループがこのような除外を許可することを求めている。
FTは、WR Berkleyが、’AI、またはAIを組み込んだサービスまたは製品の実際または主張される使用’に関連する請求を禁止する除外を求めたと述べている。
犬を訴えることはできない
これは予測可能な開発であった。米国政権が、米国のAI開発文化から赤字を削除しようとするのと同時に、中国と競争できるようにレベルを平準化しようとしている間、著名なAIシステムはほとんど権利クリアされた素材でトレーニングされていないため、訴訟の増加が起こっている。ディズニーやユニバーサルなどの影響力のあるプレイヤーからである。
米国の2025年AIアクションプラン(上記のリンク先)では、著作権所有者についてはほとんど言及されていない。中国のように問題を埋めようとする米国の姿勢は、連邦の自由主義を反対する州に押し付ける決意に反映されている。
しかし、FTの報告で言及されている懸念は、インフラストラクチャーや株式市場メカニズムなどの基本システムのエージェントコントロールを持つAIシステムの場合、著作権問題を超えて存在する可能性がある。
米国の司法は、AIがそのエラーに対して責任を負うこと、そしてその所有者がその冒険に対して責任を負うこと、つまり犬の所有者がその犬によって引き起こされる怪我に対して責任を負うのと同様に、広く決定している。これは、保険会社にとって暗い展望である。保険会社は、他の問題の中でも、潜在的に有害な方法で妄想することができる生成AIの能力について心配している。
保証付き建設
しかし、保険業界からのこの予測可能な不満の波は、核産業、宇宙、航空、ワクチン開発など、米国が政府の保証と保険カバレッジが新しい重要な技術にとって不可欠であると判断した状況での大きな歴史的先例がある。
原子力
例えば、1957年に議会は、プライス・アンダーソン法で原子力産業の責任を制限した。なぜなら、政府の後ろ盾なしでは、民間の保険会社が原子力エネルギーを支援することは決してないことが明らかになったからである。
法律は、公益事業と原子炉メーカーが訴訟対象となる金額を制限し、事故に対する支払いメカニズムを設けた。以来、繰り返し更新されており、最近では今年の支出法で2065年まで延長された。
航空宇宙
さらに、米国政府は、商業的な宇宙打ち上げ会社を、民間の保険会社が引き受ける以上の損害に対する責任から保護している。 商業宇宙打ち上げ法の下で、打ち上げ会社は一定額の保険を保持することが義務付けられており、連邦の保証はその上で適用される。現在、2.7億ドルの上限が設定されている。
この二次的な安全ネットは、今まで一度も発動されたことがないが、スペースXやブルーオリジンなどの企業が、保険できない失敗の恐怖に妨げられることなく、宇宙プログラムを開発できるようにしている。
テロリズム
予想通り、9/11の事件の後、保険業界は、以前は一般的なポリシーの条件でカバーしていたリスクを、テロリズムや戦争に対する損失をカバーしないことを望んだ。通常通り、米国連邦政府は、短期的から中期的までの期間、連邦の義務としてカバーを拡大することで対応した。
テロリズムリスク保険法(TRIA)は2002年に制定され、テロリズムによる損失や請求に対する連邦の保険後ろ盾を創設し、一定の免責額を超えるテロリズム損失の多大な部分をカバーした。トランプ政権の下でも複数回更新された。
ワクチン開発
ワクチンの開発と拡散が1970年代と1980年代に広範囲に及ぶ影響を与え始めたとき、製造業者に対する訴訟の増加により、製造業者の損害責任コストが著しく増加した。
公衆衛生上の危機を避けるために、議会は全国児童ワクチン損害法を制定し、保険請求を専用のワクチン裁判所に転送し、安全基準を満たしている限り、製造業者をほとんどの責任から保護した。したがって、イノベーションが続行され、患者は政府プールから補償された。
このアプローチは後に最高裁判所によって支持され、COVID-19のパンデミック中にPREP法によって拡大された。承認された対策に対する製造業者の責任を免除した。
AIは異なる種類のケースか?
したがって、議会は、保険会社が公的リスクセクターを引き受けることをためらうとき、イノベーションのボトルネックを解消するために繰り返し介入してきた。
しかし、AIのリスクが核システムのリスクを上回ることを主張することは難しいが、保険グループは、生成AIがシステム的なリスクをもたらすと主張している。つまり、悪影響は、違反、人為的ミス、攻撃、またはその他のより馴染みのある種類の偶然や冒険の結果ではなく、システムの正常な機能の結果である可能性がある。
AIの先駆者でチューリング賞受賞者のヨシュア・ベンジョは、11月初旬に、人工知能企業は、’存在的リスク’をカバーする責任保険を法的に義務付けられるべきだと述べた。
しかし、歴史は、政府の支援なしでAI企業を自己保険に追い込むことは、先に進む可能性のある道ではないことを示唆している。Unite.AIのCEOであるサム・アルトマンは最近、AIが必要に応じて銀行のような政府の後ろ盾を受けるべきだと示唆したことを取り下げたが、現在の米国政権の趨勢は、AIの運命を単に市場に任せることを示唆していない。
可能な措置
一つの可能な進路は、連邦の損害責任上限である。1957年のプライス・アンダーソン法やワクチン法をAI保証法の形で再訪問することである。
AI関連の損害に対する連邦の補償基金とともに、このアプローチは、ワクチンや核産業が過去の十年間に保護されたのと同様に、企業を’最悪の場合’の訴訟シナリオから保護できる。
代替案として、TRIAモデルをAIの目的のために政府のAI保険後ろ盾の形で適応させることができる。保険会社はAIの損害責任カバレッジを提供することを強制されるが、連邦政府は、たとえば、一定のしきい値を超える損失の80〜90%を支払うことになる。
おそらく最も魅力のない選択肢は、直接の連邦保険または保証である。政府が直接の保険者となる。このレベルの国家介入は、通常、重要な産業の限られた期間、または戦時中の管理シナリオに予約される。
このような措置は、特に政府と選挙人の一部の支部で、’社会主義’政策の批判を引き起こす可能性がある。
最近の行動に基づくと、米国政権は、州ごとのユニークな保険シナリオを生み出す可能性のある州レベルの規制を無効にするために、規制上のオーバーライドを推進する可能性が高い。
結論
AIが銀行と同様の’救済’の地位を得る可能性に反対する人々は、AIの保険に関する難題に対する政府の後ろ盾のある解決策を受け入れる可能性は低い。
しかし、現在の米国政権はAIを’不可欠なインフラ’と見なしていることが明らかである。AIは、常に間違ったり、あるいは期待を裏切ったりする傾向がある。
広範な国家介入がAIの保険に必要であると主張することは、難しい。市場の熱狂や投資家の狂気が、バブルの崩壊の恐怖や、同時に恐怖と魅了された世論に影を落とす。
初めて発行: 2025年11月24日












