Andersons hoek
Zal AI hetzelfde soort gesocialiseerde verzekering nodig hebben als nucleaire energie?

De VS zijn vaak ingegrepen in belangrijke nieuwe technologiegebieden wanneer verzekeraars bang werden, en dit lijkt waarschijnlijk weer te gebeuren met AI; maar zijn de risico’s deze keer anders?
Functie De huidige Amerikaanse regering heeft herhaaldelijk haar toewijding getoond om ervoor te zorgen dat de laissez faire-vrijheden die China geniet bij de ontwikkeling van AI-systemen, worden weerspiegeld in de Verenigde Staten. Aangezien Amerika momenteel een sterke uitvoerende houding inneemt en zijn invloed uitoefent met een zware hand, suggereren recente gebeurtenissen dat zijn AI-beleid mogelijk in de toekomstige wetgeving van landen wordt weerspiegeld die afhankelijk zijn van goede betrekkingen met de Staten.
Daarom zal het interessant zijn om te zien hoe de VS reageert op het veelgerapporteerde verzoek aan het Congres van grote verzekeraars om polissen aan te mogen bieden die uitsluiting van aansprakelijkheid met betrekking tot AI-systemen zoals chatbots en agente AI uitsluiten.
Volgens het FT-rapport dat hierboven is gelinkt, hebben verzekeraars als AIG, Great American en WR Berkley onder andere verzocht om dergelijke uitsluitingen toe te staan.
De FT merkt op dat WR Berkley heeft gevraagd om een uitsluiting die claims zou verbieden die betrekking hebben op ‘elk daadwerkelijk of vermeend gebruik’ van AI, of enig product of dienst dat ‘AI incorporeert’.
Je kunt de hond niet aanklagen
Dit was een voorspelbare ontwikkeling: op hetzelfde moment dat de Amerikaanse regering probeert bureaucratische rompslomp te verwijderen uit de Amerikaanse AI-ontwikkelingscultuur, zodat deze kan concurreren op een gelijk speelveld met China, zorgt het feit dat prominente AI-systemen zelden zijn getraind op materiaal waarvoor de rechten zijn vrijgegeven, voor een groeiend aantal rechtszaken van invloedrijke spelers zoals Disney en Universal.
Het AI-actieplan van de VS uit 2025 (hierboven gelinkt) vermeldt heel weinig over rechthebbenden; en het land lijkt ernaar te streven om het onderwerp, op China-achtige wijze, te begraven, wat weerspiegeld wordt in zijn beslissing om federale laissez faire op te leggen aan onwillige staten.
Echter, de zorgen die in het FT-rapport worden geschetst, kunnen verder gaan dan auteursrechtskwesties, in het geval van AI-systemen die agente controle hebben over infrastructuur, of andere fundamentele systemen, zoals mechanismen voor de aandelenmarkt.
De Amerikaanse rechterlijke macht heeft in het algemeen besloten dat AI verantwoordelijk zal worden gehouden voor zijn fouten, met zijn eigenaren aansprakelijk voor zijn misavonturen – net zoals een hondeneigenaar aansprakelijk zal zijn voor eventuele verwondingen die door zijn hond worden toegebracht. Dat is een somber vooruitzicht voor verzekeraars, die – onder andere kwesties – bezorgd zijn over de capaciteit van generatieve AI om hallucinaties te produceren op potentieel schadelijke wijze.
Verzekerd bouwen
Echter, deze voorspelbare golf van klachten van de verzekeringsector heeft aanzienlijke historische precedenten in gebieden zoals de nucleaire industrie, de ruimtevaart en de luchtvaart, en de ontwikkeling van vaccins, onder andere – omstandigheden waarin de VS besloot dat overheidsverzekeringen en verzekeringen essentieel waren voor belangrijke nieuwe technologieën, om niet toe te geven aan landen (zoals de voormalige Sovjet-Unie of Frankrijk) waar staatsgesteunde verzekering van infrastructuur veel gebruikelijker was.
Nucleair
Bijvoorbeeld, in 1957 heeft het Congres de aansprakelijkheid van de nucleaire industrie gelimiteerd met de Price-Anderson-wet, aangezien het duidelijk was geworden dat zonder een overheidssteun, particuliere verzekeraars nooit atoomenergie zouden steunen.
De wet limiteerde hoeveel nutsbedrijven en reactorbouwers aangeklaagd konden worden, en richtte een uitbetalingsmechanisme op om ongevallen te dekken. Het is sindsdien herhaaldelijk verlengd, meest recentelijk met een verlenging tot 2065, in de jaarlijkse begroting.
Aerospace
Bovendien beschermt de Amerikaanse overheid commerciële ruimtevaartbedrijven tegen catastrofale aansprakelijkheid door schade te dekken die particuliere verzekeraars niet zullen ondersteunen. Onder de Commerciële Ruimtevaartwet zijn lanceerders verplicht een vast bedrag aan verzekeringen af te sluiten, met federale vrijwaring die boven dat bedrag in werking treedt, momenteel gelimiteerd tot $ 2,7 miljard.
Deze tweede veiligheidsnet, nog nooit ingeroepen, stelt bedrijven als SpaceX en Blue Origin in staat om ruimteprogramma’s te ontwikkelen zonder te worden gehinderd door de dreiging van onverzekerde mislukking.
Terrorisme
Het is niet verwonderlijk dat, na de gebeurtenissen van 9/11, de verzekeringsector, die eerder dergelijke risico’s had gedekt onder de voorwaarden van algemene polissen, geen verlies meer wilde dekken als gevolg van terrorisme en oorlog. In dit geval, zoals gebruikelijk, reageerde de Amerikaanse federale overheid door de dekking uit te breiden als een federale verplichting op korte tot middellange termijn.
De Terrorism Risk Insurance Act (TRIA) van 2002 creëerde een federale verzekeringsscherm voor verliezen en claims als gevolg van terrorisme, waarbij een groot deel van de verliezen als gevolg van terrorisme boven bepaalde franchises werd gedekt – een wet die meerdere keren is verlengd, waaronder onder de regering-Trump.
Vaccinontwikkeling
Net zoals vaccinontwikkeling en -verspreiding een bredere invloed op de mondiale gezondheid begonnen te krijgen in de jaren 70 en 80, nam het aantal rechtszaken tegen fabrikanten toe, waardoor de aansprakelijkheidskosten voor fabrikanten aanzienlijk toenamen.
Om een publieke gezondheidscrisis te voorkomen, creëerde het Congres de National Childhood Vaccine Injury Act, waardoor verzekeringseisen werden omgeleid naar een speciaal Vaccinatiehof, en fabrikanten werden beschermd tegen de meeste aansprakelijkheid, zolang de veiligheidsnormen werden nageleefd, waardoor innovatie kon worden voortgezet en patiënten konden worden gecompenseerd vanuit een overheidsfonds.
Deze aanpak werd later door het Hooggerechtshof bevestigd en uitgebreid tijdens de COVID-19-pandemie onder de PREP-wet, die de aansprakelijkheid van fabrikanten voor goedgekeurde maatregelen ophefte.
Is AI een ander soort geval?
Dus, het Congres is herhaaldelijk ingegrepen om innovatiebottlenecks te doorbreken wanneer verzekeraars weigerden om publieke risicosectoren te verzekeren.
Echter, hoewel het moeilijk is om te beweren dat de risico’s van AI die van nucleaire systemen overtreffen, beweren de verzekeraars dat generatieve AI systemische risico’s introduceert, waarbij nadelige gevolgen potentieel ‘inheems’ zijn voor de normale werking van een systeem, in plaats van een gevolg van een inbreuk, menselijke fout, aanval of andere meer vertrouwde soorten ongevallen of misavonturen.
AI-pionier en Turing-prijswinnaar Yoshua Bengio zei begin november dat artificial intelligence-bedrijven wettelijk verplicht zouden moeten worden om aansprakelijkheidsverzekeringen te hebben, om ‘existentiële risico’s’ te dekken.
Echter, de geschiedenis suggereert dat het opleggen van AI-bedrijven om zichzelf te verzekeren, zonder overheidssteun, niet de waarschijnlijke weg vooruit is. Hoewel de CEO van OpenAI, Sam Altman, onlangs terugkwam op een suggestie dat AI bank-achtige overheidssteun zou moeten krijgen als dat nodig is, geeft de trend van de huidige Amerikaanse regering aan dat ze de toekomst van AI niet alleen aan de vrije markt zal overlaten.
Mogelijke maatregelen
Een mogelijke manier om verder te gaan is een federale aansprakelijkheidslimiet – een herziening van de Price-Anderson-wet van 1957, evenals de vaccinwet, in de vorm van een ‘AI-vrijwaringswet’ die de aansprakelijkheid van bedrijven voor bepaalde AI-gerelateerde schades limiteert.
Samen met een federaal compensatiefonds voor AI-gerelateerde verwondingen, vergelijkbaar met het eerdere vaccinatiefonds, kan deze aanpak bedrijven beschermen tegen ‘worst case’-rechtszaken, net zoals de vaccin- en nucleaire industrie in eerdere decennia werd beschermd.
Als alternatief kan het TRIA-model worden aangepast voor dit doel, in de vorm van een overheids-AI-verzekeringsscherm. Dit zou verzekeraars ertoe dwingen om AI-aansprakelijkheidsverzekeringen aan te bieden, maar de federale overheid zou ermee instemmen om, bijvoorbeeld, 80-90% van de verliezen boven een bepaalde drempel te betalen.
Misschien is de minst aantrekkelijke optie – deels omdat het kritiek kan uitlokken op ‘socialistisch’ beleid in bepaalde takken van de regering en het electoraat – directe federale verzekering of vrijwaring, waarbij de overheid de directe verzekeraar is.
Dit niveau van staatsbetrokkenheid wordt meestal gereserveerd voor beperkte perioden in de evolutie van kritieke industrieën (zoals de nucleaire industrie), of voor oorlogsscenario’s.
Conclusie
Degenen die bezwaar maken tegen de mogelijkheid dat AI dezelfde ‘reddings’-status krijgt als banken, zullen waarschijnlijk niet enthousiast zijn over zwaar door de overheid gesteunde oplossingen voor de verzekeringproblemen rond AI.
Echter, het is duidelijk dat de huidige Amerikaanse regering AI ziet als ‘essentiële infrastructuur’, ondanks de steeds groter wordende neiging om te falen, of anderszins tekort te schieten in de verwachtingen.
Men kan betogen dat uitgebreide staatsbetrokkenheid bij het verzekeren van AI neerkomt op een ‘voorafgaande redding’ – een moeilijke verkoop in een periode waarin marktenthousiasme en beleggerswoede wordt overschaduwd door de groeiende angst voor een bubbel, en door een publiek dat tegelijkertijd bang en betrokken is ten aanzien van generatieve AI.
Eerst gepubliceerd op maandag 24 november 2025












