Andersons vinkel
Vil AI kreve samme type sosialt forsikring som kjernekraft?

USA har ofte intervenert i større nye teknologiområder når forsikringsselskapene ble redd, og dette ser ut til å skje igjen med AI; men er risikoen annerledes denne gangen?
Feature Den nåværende amerikanske regjeringen har gjentatte ganger vist sin tilknytning til å sikre at laissez faire-frihetene som Kina nyter i utvikling av AI-systemer, blir speilet i USA. Ettersom Amerika for tiden tar en sterk utøvende holdning og utøver sin innflytelse med en ganske tung hånd, tyder nyere hendelser på at landets AI-politikk kan bli gjenspeilet i fremtidens lovgivning i land som er avhengige av gode forhold til USA.
Derfor vil det være interessant å se hvordan USA responderer på den mye omtalte forespørselen til kongressen fra store forsikringsselskaper om å få lov til å tilby forsikringspoliser som exkluderer dekning av ansvar i forbindelse med AI-systemer som chatbots og agens AI.
Ifølge FT-rapporten ovenfor, er forsikringsselskapene AIG, Great American og WR Berkley blant en rekke andre som søker å få slike eksklusjoner tillatt.
FT bemerker at WR Berkley har bedt om en eksklusjon som vil forby claims som involverer ‘noe faktisk eller påstått bruk’ av AI, eller noen tjeneste eller produkt som ‘inkorporerer’ AI.
Man Kan Ikke Saksøke Hunden
Dette var en forutsigbar utvikling: samtidig som den amerikanske regjeringen søker å fjerne byråkratisk tape fra amerikansk AI-utviklingskultur, så at den kan konkurrere på en jevn spillende felt med Kina, er det faktum at prominente AI-systemer sjelden er trenet på rettighetssikret materiale, årsak til en voksende mengde søksmål fra innflytelsesrike spillere som Disney og Universal.
USAs AI-aksjonsplan for 2025 (lenket ovenfor) nevner svært lite om rettighetsholdere; og landets åpenbare impetus mot å begrave problemet, Kina-stil, synes å være reflektert i sin bestrebelse på å tvinge føderal laissez faire på uenige stater.
Men bekymringene som er omtalt i FT-rapporten, kan strekke seg utover opphavsrettslige spørsmål, i tilfelle av AI-systemer som har agenskontroll over infrastruktur eller andre grunnleggende systemer, som aksjemarkedsmekanismer.
USAs domstoler har bredt bestemt at AI vil holdes ansvarlig for sine feil, med sine eiere ansvarlige for sine eventyr – mye som en hundeier vil være ansvarlig for skader forårsaket av sin hund. Dette er en trist prospekt for forsikringsselskaper, som – blant andre problemer – er bekymret over generativ AI sin evne til å hallusinere på potensielt skadelig måte.
Sikret Konstruksjon
Men denne forutsigbare bølgen av klager fra forsikringsselskapene, har betydelig historisk presedens i områder som atomindustrien, romfart og luftfart, og vaksineutvikling, blant andre – omstendigheter hvor USA bestemte at statlige garantier og forsikringsdekning var essensielle for viktige nye teknologier, for å ikke gi avkall på fremgang til land (som det tidligere Sovjetunionen eller Frankrike) hvor statsstøttet forsikring av infrastruktur var langt mer vanlig.
Kjernefysisk
For eksempel, i 1957, begrenset Kongressen atomindustriens ansvar med Price-Anderson loven, da det var blitt tydelig at uten en statlig sikkerhet, ville private forsikringsselskaper aldri støtte atomenergi.
Loven begrenset hvor mye strømforsyning og reaktortilbyggere kunne søkes for, og etablerte en utbetalingsmekanisme for å dekke ulykker. Den har siden blitt fornyet flere ganger, senest med en utvidelse til 2065, i årets budsjettpost.
Luft- og romfart
I tillegg beskytter den amerikanske regjeringen kommersielle romferdselskaper mot katastrofale ansvar ved å dekke skader som overstiger hva private forsikringsselskaper vil underwrite. Under Commercial Space Launch Act, er lanseringsleverandører pålagt å ha en fast mengde forsikring, med føderal kompensasjon som kommer i gang over dette, for tiden begrenset til 2,7 milliarder dollar.
Denne sekundære sikkerhetsnetten, aldri tidligere innkalt, tillater selskaper som SpaceX og Blue Origin å utvikle romprogrammer uten å bli hindret av truselen om uforsikret feil.
Terrorisme
Uventet, etter hendelsene den 11. september, ønsket ikke lenger forsikringsselskapene å dekke tap på grunn av terrorisme og krig. I dette tilfelle, som vanlig, svarte den amerikanske regjeringen med å utvide dekning som en føderal forpliktelse på kort til medium sikt.
Terrorism Risk Insurance Act (TRIA) fra 2002, skapte en føderal forsikringsgaranti for tap og krav på grunn av terrorisme, og dekket en stor andel av terrorrelaterte tap over fastsatte fradragsbeløp – en lov som har blitt fornyet flere ganger, inkludert under Trump-administrasjonen.
Vaksineutvikling
Nett som vaksineutvikling og -diffusjon begynte å ha en omfattende effekt på global helse på 1970- og 1980-tallet, økte en plage av søksmål mot produsenter ansvarlige kostnadene betydelig for produsentene.
For å unngå en folkehelsekrise, skapte Kongressen National Childhood Vaccine Injury Act, og omdirigerte forsikringskrav til en dedikert Vaksine-domstol, og beskyttet produsentene mot det meste av ansvar, så lenge sikkerhetsstandarder ble oppfylt, og lot innovasjonen fortsette samtidig som pasienter ble kompensert fra en statlig fond.
Tilnærmingen ble senere opprettholdt av Høyesterett og utvidet under PREP-loven, som friga produsentenes ansvar for godkjente mottiltak.
Er AI En Annerledes Sak?
Dermed har Kongressen gjentatte ganger trådt inn for å bryte innovasjonsflaskhals når forsikringsselskaper nøler med å underwrite offentlige-risikosektorer.
Men, selv om det er vanskelig å hevde at AI-risiko overstiger de som finnes i kjernefysiske systemer, er forsikringsselskapene i ferd med å argumentere for at generativ AI introduserer systemiske risiko, hvor ugunstige konsekvenser potensielt er ‘native’ til normal funksjon av et system, snarere enn et resultat av brudd, menneskelig feil, angrep eller andre mer kjente typer hendelser eller uheld.
AI-pioneren og Turing-prisvinneren Yoshua Bengio uttalte tidlig i november at kunstig intelligens-selskaper bør være lovmessig tvunget til å ha ansvarsforsikring, for å dekke ‘eksistensielle risiko’.
Men historien tyder på at å tvinge AI-selskaper til å forsikre seg, uten statlig støtte, ikke er den sannsynlige vei fremover. Selv om OpenAIs CEO Sam Altman nylig trakk tilbake et forslag om at AI bør motta bank-lignende statlig støtte hvis nødvendig, tyder trenden for den nåværende amerikanske regjeringen på at den ikke vil la AI sin skjebne bli bestemt av markedet alene.
Mulige Tiltak
En mulig vei fremover er en føderal ansvarsbegrensning – en gjenopptakelse av Price-Anderson-loven fra 1957, samt vaksineloven, i form av en ‘AI-erstatningslov’ som begrenser ansvar for selskaper for visse AI-relaterte skader.
Sammen med en føderal kompensasjonsfond for AI-relaterte skader, lignende vaksine-skade-fondet, kunne denne tilnærmingen beskytte selskaper mot ‘verste-case’ søksmål-scenarier, på samme måte som vaksine- og kjerneindustrien hadde blitt beskyttet i tidligere tiår.
Alternativt kunne TRIA-modellen bli tilpasset for formålet, i form av en statlig AI-forsikringsgaranti. Dette ville tvinge forsikringsselskaper til å tilby AI-ansvarsforsikring, men den føderale regjeringen ville gå med på å betale, for eksempel, 80-90% av eventuelle tap over en bestemt terskel.
Kanskje det minst attraktive alternativet – delvis fordi det kunne inspirere kritikk av ‘sosialistisk’ politikk i visse grener av regjeringen og velgerne – ville være direkte statlig forsikring eller erstatning, hvor regjeringen er den direkte forsikringsaktøren.
Dette nivået av statlig involvering er vanligvis forbeholdt begrensede perioder i utviklingen av kritiske industrier (som kjerneindustrien), eller for krigstidsledelsesscenarier.
Konklusjon
De som motsier muligheten for at AI får samme ‘bailout’-status som banker, er ikke sannsynlig å omfavne tungt statlig støttede løsninger på forsikringsproblemer rundt AI.
Men det er tydelig at den nåværende amerikanske regjeringen ser på AI som ‘essensiell infrastruktur’, til tross for dens stadig økende tendens til å feile, eller på annen måte ikke møte forventningene.
Man kunne argumentere for at omfattende statlig involvering i å forsikre AI, er tilsvarende en ‘forhånds-bailout’ – en hard salg i en periode hvor markedsspidde og investeringsfrenesi skygges av den voksende frykten for en boble-brist, og av en offentlighet som samtidig er redd og forhekset i forhold til generativ AI.
Først publisert mandag, 24. november 2025












