Connect with us

Kommer AI att kräva samma typ av socialiserad försäkring som kärnkraft?

Andersons vinkel

Kommer AI att kräva samma typ av socialiserad försäkring som kärnkraft?

mm
AI-generated image: a robot on a floundering ship reaches for a life-preserver that is not there, under a placard reading 'INSURANCE', as the sea rises over the boat. GPT-image-1 and Firefly V3.

USA har ofta ingripit i stora nya teknikområden när försäkringsbolag blev rädda, och detta verkar troligt att hända igen med AI; men är riskerna annorlunda den här gången?

 

Feature Den nuvarande amerikanska administrationen har upprepat visat sitt åtagande att säkerställa att laissez faire-friheterna som Kina åtnjuter vid utveckling av AI-system är speglade i USA. Eftersom Amerika för närvarande tar en stark exekutiv ställning och utövar sitt inflytande med en ganska tung hand, tyder nyliga händelser på att dess AI-politik kan återges i framtida lagstiftning i länder som är beroende av goda relationer med staten.

Därför kommer det att vara intressant att se hur USA svarar på den väldokumenterade begäran till kongressen från stora försäkringsbolag att få tillåtelse att erbjuda försäkringar som exkluderar täckning av skadestånd i samband med AI-system som chatbots och agenter.

Enligt FT-rapporten ovan har försäkringsgrupperna AIG, Great American och WR Berkley bland andra begärt att få tillåtelse att ha sådana undantag.

FT noterar att WR Berkley har begärt ett undantag som skulle förbjuda anspråk som involverar ‘varje faktisk eller påstådd användning’ av AI, eller varje tjänst eller produkt som ‘inkorporerar’ AI.

Man kan inte stämma hunden

Detta var en förutsägbar utveckling: samtidigt som den amerikanska administrationen försöker ta bort byråkratiskt krångel från den amerikanska AI-utvecklingskulturen, så att den kan konkurrera på en jämn spelplan med Kina, har det faktum att framstående AI-system sällan tränas på rättighetsklar material orsakat en växande mängd rättsfall från inflytelserika aktörer som Disney och Universal.

USA:s AI-aktionsplan från 2025 (länkad ovan) nämner mycket lite om upphovsrättsinnehavare; och landets tydliga strävan att tvinga federal laissez faire på dissidentstater verkar återspeglas i dess beslutsamhet att tvinga federal laissez faire på dissidentstater.

Men de problem som beskrivs i FT-rapporten kan sträcka sig bortom upphovsrättsfrågor, i fallet med AI-system som har agentkontroll över infrastruktur eller andra grundläggande system, som aktiemarknadsmekanismer.

Den amerikanska domstolen har i allmänhet bestämt att AI ska hållas ansvarig för sina fel, med dess ägare ansvariga för dess missöden – liknande en hundägare som kommer att vara ansvarig för eventuella skador som orsakas av deras hund. Det är en dyster utsikt för försäkringsbolag, som – bland andra problem – är oroliga för den generativa AI:s förmåga att hallucinera på potentiellt skadliga sätt.

Säker konstruktion

Men denna förutsägbara uppsvällning av klagomål från försäkringssektorn har betydande historiskt precedent i områden som den kärntekniska industrin, rymden och flygindustrin, samt vaccinutveckling, bland andra – omständigheter där USA bestämde att statliga garantier och försäkringstäckning var nödvändiga för viktiga nya tekniker, för att inte ge upp framsteg till länder (såsom det forna Sovjetunionen eller Frankrike) där statligt stödd försäkring av infrastruktur var mycket vanligare.

Kärnkraft

Till exempel, 1957, begränsade kongressen den kärntekniska industrins skadeståndsansvar med Price-Anderson-lagen, eftersom det hade blivit uppenbart att utan en statlig garanti, privata försäkringsbolag aldrig skulle stödja atomenergi.

Lagen begränsade hur mycket elbolag och reaktortillverkare kunde stämmas för, och inrättade en utbetalningsmekanism för att täcka olyckor. Den har sedan dess förnyats upprepat, senast med en förlängning fram till 2065, i årets budget.

Aerospace

Dessutom skyddar den amerikanska regeringen kommersiella rymdstartföretag från katastrofala skadeståndsanspråk genom att täcka skador som överstiger vad privata försäkringsbolag är villiga att teckna. Enligt Commercial Space Launch Act, är startleverantörer skyldiga att ha en fast försäkringsbelopp, med federal ersättning som träder i kraft ovanför detta, för närvarande begränsat till 2,7 miljarder dollar.

Denna sekundära säkerhetsnät, aldrig tidigare använt, tillåter företag som SpaceX och Blue Origin att utveckla rymdprogram utan att hämmas av hotet om oförsäkrad misslyckande.

Terrorism

Förväntat nog, efter händelserna den 11 september, ville försäkringsbranschen, som tidigare täckt sådana risker enligt allmänna policys villkor, inte längre täcka förluster på grund av terrorism och krig. I detta fall, som vanligt, svarade den amerikanska federala regeringen genom att utöka täckningen som en federal skyldighet på kort till medellång sikt.

Terrorism Risk Insurance Act (TRIA) från 2002 skapade en federal försäkringsgaranti för förluster och anspråk på grund av terrorism, som täcker en stor andel av terrorismrelaterade förluster ovanför angivna självrisker – en lag som har förnyats flera gånger, inklusive under Trump-administrationen.

Vaccinutveckling

Liksom vaccinutveckling och spridning började ha en omfattande effekt på global hälsa på 1970- och 1980-talen, ökade en plåga av rättsfall mot tillverkare avsevärt skadeståndskostnader för tillverkare.

För att undvika en folkhälsokris skapade kongressen National Childhood Vaccine Injury Act, som omdirigerade försäkringsanspråk till en särskild vaccindomstol och skyddade tillverkare från de flesta skadeståndsanspråk, så länge som säkerhetsstandarder uppfylldes, och tillåter innovation att fortsätta medan patienter kompenseras från en statlig fond.

Tillvägagångssättet upprätthölls senare av Högsta domstolen och utvidgades under COVID-19-pandemin under PREP-lagen, som upphävde tillverkarens skadeståndsansvar för godkända motåtgärder.

Är AI en annan typ av fall?

Alltså har kongressen upprepat ingripit för att bryta innovationsbottleneck när försäkringsbolag tvekar att teckna offentliga risksektorer.

Men, även om det är svårt att hävda att AI:s risker överstiger de som är förknippade med kärntekniska system, hävdar försäkringsgrupperna att generativ AI introducerar systemiska risker, där ogynnsamma konsekvenser är potentiellt ‘inbyggda’ i systemets normala funktion, snarare än ett resultat av brott, mänskligt fel, attack eller andra mer bekanta typer av olyckor eller missöden.

AI-pionjären och Turing-prisvinnaren Yoshua Bengio uttalade i början av november att artificiella intelligensföretag borde vara tvungna att ha skadeståndsförsäkring, för att täcka ‘existensiella risker’.

Men, historien tyder på att det inte är sannolikt att AI-företag kommer att tvingas försäkra sig, utan statligt stöd. Även om OpenAI:s VD Sam Altman nyligen backade från ett förslag att AI borde få bankliknande statliga garantier om nödvändigt, tyder den nuvarande amerikanska administrationens trend på att den inte kommer att lämna AI:s öde till den öppna marknaden ensam.

Möjliga åtgärder

En möjlig väg framåt är en federal skadeståndsbegränsning – en återbesök av 1957 års Price-Anderson-lag, samt vaccinlagen, i form av en ‘AI-garantilag’ som begränsar skadeståndsansvaret för företag för vissa AI-relaterade skador.

Tillsammans med en federal ersättningsfond för AI-relaterade skador, liknande den tidigare vaccinskadeersättningsfonden, kunde detta tillvägagångssätt skydda företag från ‘värsta fall’-rättsfall, liknande de som vaccin- och kärntekniska industrierna skyddades i tidigare decennier.

Alternativt kunde TRIA-modellen anpassas för ändamålet, i form av en statlig AI-försäkringsgaranti. Detta skulle tvinga försäkringsbolag att erbjuda AI-ansvarsförsäkring, men den federala regeringen skulle samtycka till att betala, till exempel, 80-90% av alla förluster ovanför en viss tröskel.

Kanske är det minst attraktiva alternativet – delvis för att det kan inspirera kritik av ‘socialistisk’ politik i vissa grenar av regeringen och väljarna – direkt federal försäkring eller garanti, där regeringen är den direkta försäkringsgivaren.

Denna nivå av statligt engagemang är vanligtvis reserverad för begränsade perioder i utvecklingen av kritiska industrier (såsom den kärntekniska industrin), eller för krigsledningsscenarier.

Baserat på nylig beteende, verkar det troligt i alla fall att den amerikanska administrationen kommer att driva på för regulatoriska åsidosättanden på delstatsnivå, för att förhindra att enskilda stater inför lagar som kan skapa unika försäkringsscenarier på delstatsnivå, och undergräva en bredare federal initiativ.

Slutsats

De som invänder mot möjligheten att AI får samma ‘bailout’-status som banker, kommer inte att omfamna kraftigt statligt stödda lösningar på försäkringsproblemen kring AI.

Men, det är tydligt att den nuvarande amerikanska administrationen ser AI som ‘väsentlig infrastruktur’, trots dess växande tendens att göra fel, eller på annat sätt inte motsvara förväntningarna.

Man kunde hävda att omfattande statligt engagemang i att försäkra AI är detsamma som en ‘för-bailout’ – en svår försäljning under en period då marknadens entusiasm och investerarfeber skuggas av den växande rädslan för en bubba, och av en allmänhet som är samtidigt rädd och förälskad i generativ AI.

 

Publicerad första gången måndagen den 24 november 2025

Författare på maskinlärande, domänspecialist inom mänsklig bildsyntes. Före detta chef för forskningsinnehåll på Metaphysic.ai.