Connect with us

Vil AI Kræve Den Samme Type Af Socialiseret Forsikring Som Kerneenergi?

Andersons vinkel

Vil AI Kræve Den Samme Type Af Socialiseret Forsikring Som Kerneenergi?

mm
AI-generated image: a robot on a floundering ship reaches for a life-preserver that is not there, under a placard reading 'INSURANCE', as the sea rises over the boat. GPT-image-1 and Firefly V3.

USA har ofte grebet ind i større nye teknologiområder, når forsikringsselskaber blev bange, og det ser ud til, at dette sandsynligvis vil ske igen med AI; men er risikoen anderledes denne gang?

 

Feature Den nuværende amerikanske regering har gentagne gange vist sin tilknytning til at sikre, at den laissez faire-frihed, som Kina nyder i udviklingen af AI-systemer, også kan findes i USA. Da Amerika i øjeblikket tager en stærk eksikutiv holdning og udøver sin indflydelse med en ret tung hånd, antyder de seneste begivenheder, at landets AI-politikker kan blive gentaget i fremtidige love i lande, der afhænger af gode forbindelser med USA.

Derfor vil det være interessant at se, hvordan USA reagerer på den meget omtalte anmodning til kongressen fra større forsikringsselskaber om at få lov til at tilbyde politikker, der ekskluderer dækning af ansvar i forbindelse med AI-systemer såsom chatbots og agentic AI.

Ifølge FT-rapporten ovenfor har forsikringsselskaberne AIG, Great American og WR Berkley blandt andre bedt om sådanne undtagelser.

FT bemærker, at WR Berkley har bedt om en undtagelse, der ville forbyde krav vedrørende ‘enhver faktisk eller påstået brug’ af AI eller enhver tjeneste eller produkt, der ‘inkorporerer’ AI.

Man Kan Ikke Sæge Hunden

Dette var en forudsigelig udvikling: på samme tid, som den amerikanske regering søger at fjerne bureaukrati fra den amerikanske AI-udviklingskultur, sådan at den kan konkurrere på lige fod med Kina, har det faktum, at prominente AI-systemer sjældent trænes på rettighedsryddet materiale, ført til en voksende mængde sager fra inflydelsesrige spillere såsom Disney og Universal.

USA’s AI-aktionsplan fra 2025 (ovenfor) nævner meget lidt om rettighedshavere; og landets åbenlyse impetus mod at begrave sagen, Kina-stil, synes at være reflekteret i dets beslutning om at tvinge føderal laissez faire på utilfredsstillende stater.

Men bekymringen, der er fremhævet i FT-rapporten, kan strække sig ud over ophavsretsproblemer, i tilfælde af AI-systemer, der har agentic kontrol over infrastruktur eller andre grundlæggende systemer, såsom aktiemarkedsmekanismer.

Den amerikanske retsinstans har bredt bestemt, at AI vil blive holdt ansvarlig for sine fejl, med dens ejere ansvarlige for dens misadventurer – ligesom en hunde ejer vil være ansvarlig for eventuelle skader, som hunden påfører. Det er et grimt udsigt for forsikringsselskaber, der – blandt andre problemer – er bekymrede over generativ AI’s evne til at hallucinere på potentielt skadelige måder.

Sikret Konstruktion

Men denne forudsigelige opsving af klager fra forsikringsselskaberne har betydelig historisk præcedens i områder som kerneindustrien, rumfart og flyvning samt vaccindeudvikling, blandt andre – omstændigheder, hvor USA havde bestemt, at regeringsgarantier og forsikringsdækning var essentiel for vigtige nye teknologier, for ikke at give afkald på fremgang til lande (såsom det tidligere Sovjetunionen eller Frankrig), hvor statsstøttet forsikring af infrastruktur var langt mere almindelig.

Kerneenergi

For eksempel i 1957 fastså kongressen kerneindustriens ansvar med Price-Anderson loven, da det var blevet tydeligt, at uden en regeringsstøtte, ville private forsikringsselskaber aldrig støtte atomenergi.

Loven begrænsede, hvor meget el-virksomheder og reaktorfabrikanter kunne sagsøges for, og oprettede en udbetalingsmekanisme til at dække ulykker. Den er siden blevet fornyet gentagne gange, senest med en forlængelse til 2065, i årets budgetlov.

Rumfart

Desuden beskytter den amerikanske regering kommercielle rumfartselskaber mod katastrofale ansvar ved at dække skader, der overstiger, hvad private forsikringsselskaber vil underwrite. Under Commercial Space Launch Act, skal lanceringsselskaber have en fast mængde forsikring, med føderal garantikapning over dette, i øjeblikket på 2,7 milliarder dollars.

Denne sekundære sikkerhedsnet, aldrig tidligere anvendt, giver selskaber som SpaceX og Blue Origin mulighed for at udvikle rumprogrammer uden at være handicappet af truslen om uforsikret fiasko.

Terrorisme

Ikke overraskende, efter begivenhederne den 11. september, ønskede forsikringsselskaberne ikke længere at dække tab som følge af terrorisme og krig. I dette tilfælde, som sædvanlig, udvidede den amerikanske regering dækningen som en føderal forpligtelse på kort til mellemlang sigt.

Den Terrorism Risk Insurance Act (TRIA) fra 2002 oprettede en føderal forsikringsstøtte for tab og krav som følge af terrorisme, dækkende en stor del af terrorisme-tab over faste fradragsbeløb – en lovgivning, der er blevet fornyet flere gange, herunder under Trump-administrationen.

Vaccindeudvikling

Lige som vaccindeudvikling og -distribution begyndte at have en vidtspredt effekt på global sundhed i 1970’erne og 1980’erne, øgede en plage af sager mod producenter ansvarligt for væsentligt øgede omkostninger for producenterne.

For at undgå en offentlig sundhedskrise oprettede kongressen National Childhood Vaccine Injury Act, der omdirigerede forsikringskrav til en særlig Vaccine Domstol og beskyttede producenterne mod det meste af ansvar, så længe sikkerhedsstandarder var opfyldt, og tillod innovation at fortsætte, mens patienter blev kompenseret fra en regeringspool.

Tilgangen blev senere opretholdt af Højesteret og udvidet under PREP-loven, der frigjorde producenternes ansvar for godkendte modforanstaltninger.

Er AI En Anden Type Sag?

Således har kongressen gentagne gange grebet ind for at bryde innovationsbottleneck, når forsikringsselskaber nølede med at underwrite offentlige-risikosektorer.

Men selv om det er svært at påstå, at AI’s risici overstiger dem for kerneenergisystemer, hævder forsikringsselskaberne, at generativ AI introducerer systemiske risici, hvor ugunstige konsekvenser potentielt er ‘native’ for det normale funktionsmåde af et system, snarere end en følge af brud, menneskelig fejl, angreb eller andre mere velkendte former for uheld eller misadventure.

AI-pioneren og Turing-prisvinderen Yoshua Bengio udtalte i begyndelsen af november, at kunstig intelligens-virksomheder bør være lovpligtigt til at have ansvarsforsikring for at dække ‘eksistentielle risici’.

Men historien tyder på, at det ikke er sandsynligt, at AI-virksomhederne bliver tvunget til at forsikre sig selv uden regeringsstøtte. Selv om OpenAI’s CEO Sam Altman for nylig trådte tilbage fra en udtalelse om, at AI bør modtage bank-stil regeringsstøtte, hvis nødvendigt, antyder den nuværende amerikanske regerings tendens, at den ikke vil lade AI’s skæbne afhænge af markedet alene.

Mulige Foranstaltninger

En mulig vej fremad er en føderal ansvarsbegrænsning – en genbesøg af Price-Anderson-loven fra 1957 samt vaccineloven i form af en ‘AI-erstatningslov’, der begrænser ansvarligt for selskaber for visse AI-relaterede skader.

Sammen med en føderal kompensationsfond for AI-relaterede skader, lignende den tidligere vaccine-skadefond, kunne denne tilgang beskytte selskaber mod ‘værst case’-sagscenarier, ligesom vaccine- og kerneindustrien havde været beskyttet i tidligere årtier.

En alternativ mulighed kunne være TRIA-modellen tilpasset formålet i form af en regeringsstøttet AI-forsikringsstøtte. Dette ville tvinge forsikringsselskaber til at tilbyde AI-ansvarsforsikring, men den føderale regering ville acceptere at betale, for eksempel, 80-90% af enhver tab over en vis grænse.

Måske den mindst tiltrækkende mulighed – delvis fordi den kunne inspirere kritik af ‘socialistisk’ politik i visse grene af regeringen og vælgerne – ville være direkte føderal forsikring eller erstatning, hvor regeringen er den direkte forsikring.

Dette niveau af statsindblanding er normalt forbeholdt begrænsede perioder i udviklingen af kritiske industrier (såsom kerneindustrien) eller for krigstidsledelsesscenarier.

Basert på seneste adfærd, synes det sandsynligt, at den amerikanske regering vil presse på for reguleringer, der negerer lovgivning på delstatsniveau, for at forhindre enkeltstater i at fastsætte love, der kunne skabe unikke forsikringsscenarier på delstatsniveau, og underminere en bredere føderal initiativ.

Konklusion

De, der modsætter sig muligheden for, at AI får den samme ‘rednings’ status som banker, er sandsynligvis ikke villige til at acceptere kraftigt statsstøttede løsninger på forsikringsproblemerne omkring AI.

Men det er tydeligt, at den nuværende amerikanske regering betragter AI som ‘essentiel infrastruktur’, på trods af dets stadigt voksende tendens til at fejle eller på anden måde ikke leve op til forventningerne.

Man kunne argumentere for, at omfattende statsindblanding i forsikring af AI er lig med en ‘forudgående redning’ – en hård sælger i en periode, hvor markedets begejstring og investorerens frygt er skygget af den voksende frygt for en boblebrist, og af en offentlighed, der samtidig er bange og forhekset i forhold til generativ AI.

 

Offentliggjort mandag, den 24. november 2025

Forfatter til maskinlæring, domæne-specialist i menneskesynthese af billeder. Tidligere leder af forskningsindhold på Metaphysic.ai.