Andersons Blickwinkel
Wird künstliche Intelligenz die gleiche Art von sozialer Versicherung benötigen wie die Kernenergie?

Die USA haben oft in großen neuen Technologiebereichen eingegriffen, wenn Versicherer Angst bekommen haben, und es sieht so aus, als ob dies auch wieder mit künstlicher Intelligenz der Fall sein wird; aber sind die Risiken diesmal anders?
Feature Die derzeitige US-Regierung hat wiederholt ihre Verpflichtung gezeigt, sicherzustellen, dass die laissez faire-Freiheiten, die China genießt, bei der Entwicklung von künstlichen Intelligenz-Systemen in den Vereinigten Staaten nachgeahmt werden. Da Amerika derzeit eine starke exekutive Haltung einnimmt und seinen Einfluss mit einer ziemlich schweren Hand ausübt, deuten jüngste Ereignisse darauf hin, dass seine künstliche Intelligenz-Politik in der Zukunftsgesetzgebung von Ländern, die auf gute Beziehungen zu den Staaten angewiesen sind, widerhallen wird.
Daher wird es interessant sein zu sehen, wie die USA auf die weit verbreitete Bitte an den Kongress von großen Versicherern reagieren, die darum bitten, Policen anbieten zu dürfen, die Haftungen im Zusammenhang mit künstlichen Intelligenz-Systemen wie Chatbots und agierender künstlicher Intelligenz ausschließen.
Laut dem FT-Bericht haben Versicherungsgruppen wie AIG, Great American und WR Berkley unter anderem darum gebeten, solche Ausschlüsse zuzulassen.
Der FT bemerkt, dass WR Berkley einen Ausschluss beantragt hat, der Ansprüche im Zusammenhang mit ‘jeder tatsächlichen oder behaupteten Nutzung’ von künstlicher Intelligenz oder jedem Dienst oder Produkt, das ‘künstliche Intelligenz integriert’, verbieten würde.
Man kann den Hund nicht verklagen
Dies war eine vorhersehbare Entwicklung: zur gleichen Zeit, in der die US-Regierung versucht, Bürokratie von der amerikanischen künstlichen Intelligenz-Entwicklungskultur zu entfernen, damit sie auf einem level playing field mit China konkurrieren kann, verursacht die Tatsache, dass prominente künstliche Intelligenz-Systeme selten auf rechtmäßig freigegebenem Material trainiert werden, eine wachsende Anzahl von Klagen von einflussreichen Spielern wie Disney und Universal.
Der AI-Aktionsplan der USA von 2025 (siehe oben) erwähnt sehr wenig über Urheberrechtsinhaber; und die offensichtliche Tendenz des Landes, das Problem chinesisch zu begraben, scheint in seiner Entschlossenheit widerspiegelt, föderale laissez faire auf widerspenstige Staaten zu erzwingen.
Allerdings können die Bedenken, die im FT-Bericht dargelegt werden, über Urheberrechtsfragen hinausgehen, im Falle von künstlichen Intelligenz-Systemen, die agierende Kontrolle über Infrastruktur oder andere grundlegende Systeme wie Börsenmechanismen haben.
Die US-Justiz hat im Allgemeinen festgestellt, dass künstliche Intelligenz für ihre Fehler verantwortlich gemacht wird, wobei die Besitzer für ihre Missgeschicke haftbar gemacht werden – ähnlich wie ein Hundebesitzer für Verletzungen, die sein Hund verursacht, verantwortlich gemacht wird. Das ist eine trostlose Perspektive für Versicherungsunternehmen, die – unter anderem – besorgt sind über die Fähigkeit von generativer künstlicher Intelligenz, Halluzinationen in potenziell schädlichen Formen zu erzeugen.
Sichere Konstruktion
Jedoch hat dieser vorhersehbare Anstieg von Beschwerden aus dem Versicherungssektor erhebliche historische Präzedenzfälle in Bereichen wie der Kernindustrie, Raumfahrt und Luftfahrt sowie Impfstoffentwicklung und anderen – Umständen, in denen die USA festgestellt haben, dass staatliche Garantien und Versicherungsschutz für wichtige neue Technologien unerlässlich sind, um den Fortschritt nicht an Länder abzutreten, in denen staatliche Versicherung von Infrastruktur weit verbreitet ist.
Kernenergie
Zum Beispiel hat der Kongress 1957 die Haftung der Kernindustrie mit dem Price-Anderson-Gesetz gedeckelt, als es offensichtlich wurde, dass ohne staatliche Absicherung private Versicherer die atomare Energie nie unterstützen würden.
Das Gesetz begrenzte, wie viel much Versorgungsunternehmen und Reaktorhersteller verklagt werden konnten, und richtete einen Auszahlungsmechanismus ein, um Unfälle abzudecken. Es wurde seither mehrmals verlängert, zuletzt mit einer Verlängerung bis 2065 im aktuellen Haushaltsplan.
Luft- und Raumfahrt
Darüber hinaus schützt die US-Regierung kommerzielle Raumfahrtunternehmen vor katastrophalen Haftungen, indem sie Schäden abdeckt, die die von privaten Versicherern unterzeichneten Beträge übersteigen. Nach dem Commercial Space Launch Act sind Startanbieter verpflichtet, eine feste Versicherungssumme zu tragen, wobei die staatliche Entschädigung über diese Summe hinausgeht, derzeit auf 2,7 Milliarden Dollar gedeckelt.
Dieses zweite Sicherheitsnetz, nie zuvor in Anspruch genommen, ermöglicht es Unternehmen wie SpaceX und Blue Origin, Raumfahrtprogramme ohne die Bedrohung durch nicht versicherbare Misserfolge zu entwickeln.
Terrorismus
Nach den Ereignissen des 11. September wollte die Versicherungsbranche, die zuvor solche Risiken unter den Bedingungen allgemeiner Policen abgedeckt hatte, keine Verluste durch Terrorismus und Krieg mehr abdecken. In diesem Fall, wie üblich, reagierte die US-Regierung, indem sie die Deckung als staatliche Verpflichtung auf kurze bis mittlere Sicht ausweitete.
Der Terrorism Risk Insurance Act (TRIA) von 2002 schuf eine staatliche Versicherungsgarantie für Verluste und Ansprüche aufgrund von Terrorismus, die einen großen Teil der Terrorismusverluste über bestimmte Selbstbeteiligungen hinaus abdeckt – ein Gesetz, das mehrmals, einschließlich unter der Trump-Regierung, verlängert wurde.
Impfstoffentwicklung
Als die Impfstoffentwicklung und -verbreitung in den 1970er und 1980er Jahren einen weit verbreiteten Einfluss auf die globale Gesundheit hatten, nahm eine Flut von Klagen gegen Hersteller zu, wodurch die Haftungskosten für Hersteller deutlich stiegen.
Um eine öffentliche Gesundheitskrise zu vermeiden, schuf der Kongress den National Childhood Vaccine Injury Act, der Versicherungsansprüche auf ein spezielles Impfstoff-Schadensgericht umleitete und Hersteller von der Mehrheit der Haftung befreite, solange Sicherheitsstandards eingehalten wurden, um Innovationen fortzusetzen und Patienten aus einem staatlichen Pool zu entschädigen.
Der Ansatz wurde später vom Obersten Gerichtshof bestätigt und während der COVID-19-Pandemie unter dem PREP Act erweitert, der die Haftung der Hersteller für zugelassene Gegenmaßnahmen aufhob.
Ist künstliche Intelligenz ein anderer Fall?
Somit hat der Kongress wiederholt eingegriffen, um Innovationsengpässe zu durchbrechen, wenn Versicherer zögerten, öffentliche Risikosektoren abzusichern.
Allerdings ist es schwierig zu behaupten, dass die Risiken von künstlicher Intelligenz die von Kernsystemen übertreffen, und die Versicherungsgruppen argumentieren, dass generative künstliche Intelligenz systemische Risiken einführt, bei denen nachteilige Konsequenzen potenziell ‘native’ für die normale Funktionsweise eines Systems sind, anstatt das Ergebnis eines Verstoßes, eines menschlichen Fehlers, eines Angriffs oder anderer vertrauter Arten von Zufällen oder Missgeschicken.
Der künstliche Intelligenz-Pionier und Turing-Preisträger Yoshua Bengio erklärte Anfang November, dass künstliche Intelligenz-Unternehmen gesetzlich verpflichtet werden sollten, Haftpflichtversicherungen abzuschließen, um ‘existenzielle Risiken’ abzudecken.
Allerdings legt die Geschichte nahe, dass es unwahrscheinlich ist, dass künstliche Intelligenz-Unternehmen gezwungen werden, sich ohne staatliche Hilfe selbst zu versichern. Obwohl der CEO von OpenAI, Sam Altman, kürzlich zurückgerudert ist von der Aussage, dass künstliche Intelligenz bankenähnliche staatliche Hilfen erhalten sollte, deutet die Tendenz der aktuellen US-Regierung darauf hin, dass sie das Schicksal von künstlicher Intelligenz nicht allein dem offenen Markt überlassen wird.
Mögliche Maßnahmen
Ein möglicher Weg vorwärts ist ein bundesweiter Haftungsbegrenzungsrahmen – eine Wiederbelebung des Price-Anderson-Gesetzes von 1957 sowie des Impfstoffgesetzes in Form eines ‘künstlichen Intelligenz-Entschädigungsgesetzes’, das die Haftung von Unternehmen für bestimmte künstliche Intelligenz-bezogene Schäden begrenzt.
Zusammen mit einem bundesweiten Entschädigungsfonds für künstliche Intelligenz-bezogene Verletzungen, ähnlich dem früheren Impfstoff-Schadensfonds, könnte dieser Ansatz Unternehmen vor ‘worst-case’-Klage-Szenarien schützen, ähnlich wie die Impfstoff- und Kernindustrie in früheren Jahrzehnten abgesichert wurden.
Alternativ könnte das TRIA-Modell für diesen Zweck in Form eines staatlichen künstlichen Intelligenz-Versicherungsschutzes angepasst werden. Dies würde Versicherer zwingen, künstliche Intelligenz-Haftpflichtversicherungen anzubieten, aber die Bundesregierung würde sich bereit erklären, beispielsweise 80-90% der Verluste über einen bestimmten Schwellenwert hinaus zu zahlen.
Vielleicht ist die wenig attraktivste Option – teilweise, weil sie Kritik an ‘sozialistischer’ Politik in bestimmten Regierungs- und Wählerzweigen inspirieren könnte – direkte staatliche Versicherung oder Entschädigung, bei der die Regierung der direkte Versicherer ist.
Dieses Maß an staatlicher Beteiligung ist normalerweise auf begrenzte Zeiträume in der Entwicklung kritischer Branchen (wie der Kernindustrie) oder auf Kriegsmanagementszenarien beschränkt.
Basierend auf jüngstem Verhalten ist es wahrscheinlich, dass die US-Regierung auf regulatorische Übernahmen auf staatlicher Ebene drängen wird, um zu verhindern, dass einzelne Staaten Gesetze erlassen, die einzigartige Versicherungsszenarien auf staatlicher Ebene schaffen könnten, was eine umfassendere bundesweite Initiative untergraben würde.
Schlussfolgerung
Diejenigen, die der Möglichkeit von künstlicher Intelligenz, den gleichen ‘Rettungsschirm’-Status wie Banken zu erhalten, widersprechen, werden wahrscheinlich stark staatlich unterstützte Lösungen für die Versicherungsprobleme um künstliche Intelligenz nicht begrüßen.
Allerdings ist es offensichtlich, dass die derzeitige US-Regierung künstliche Intelligenz als ‘wichtigste Infrastruktur’ betrachtet, trotz ihrer immer stärkeren Tendenz, Fehler zu machen oder anderweitig die Erwartungen zu enttäuschen.
Man könnte argumentieren, dass umfassende staatliche Beteiligung an der Absicherung von künstlicher Intelligenz einer ‘Vor-Rettung’ gleichkommt – ein harter Verkauf in einer Zeit, in der Markterregung und Investorenfieber von der wachsenden Angst vor einem Platzen der Blase und von einer Öffentlichkeit, die gleichzeitig ängstlich und begeistert in Bezug auf generative künstliche Intelligenz ist.
Erstveröffentlichung am Montag, den 24. November 2025












