Connect with us

Czy AI wymaga tego samego rodzaju ubezpieczenia społecznego, co energia jądrowa?

Kąt Andersona

Czy AI wymaga tego samego rodzaju ubezpieczenia społecznego, co energia jądrowa?

mm
AI-generated image: a robot on a floundering ship reaches for a life-preserver that is not there, under a placard reading 'INSURANCE', as the sea rises over the boat. GPT-image-1 and Firefly V3.

Stany Zjednoczone często interweniowały w nowych obszarach technologicznych, gdy ubezpieczyciele stawali się ostrożni, i wydaje się, że tak się stanie ponownie w przypadku AI; ale czy ryzyko jest inne tym razem?

 

Artykuł Obecna administracja Stanów Zjednoczonych wielokrotnie pokazywała swoje zaangażowanie w zapewnienie, że wolności laissez faire, których cieszy się Chiny w rozwoju systemów AI, są lustrzanym odbiciem w Stanach Zjednoczonych. Ponieważ Ameryka obecnie zajmuje stanowcze stanowisko wykonawcze i wywiera swoje wpływy z dość ciężką ręką, ostatnie wydarzenia sugerują, że polityka AI może być powtarzana w przyszłych ustawach krajów, które zależą od dobrych stosunków ze Stanami.

Dlatego też będzie interesujące zobaczyć, jak Stany Zjednoczone odpowiedzą na bardzo zgłoszoną prośbę do Kongresu od głównych ubezpieczycieli, aby pozwolić im oferować polisy, które wyłączają pokrycie odpowiedzialności związanej z systemami AI, takimi jak czatboty i agenty AI.

Zgodnie z raportem FT, grupy ubezpieczeniowe AIG, Great American i WR Berkley są wśród wielu innych, które szukają takich wyłączeń.

FT zauważa, że WR Berkley poprosił o wyłączenie, które zabroniłoby roszczeń dotyczących “każdego rzeczywistego lub domniemanego użycia” AI lub jakiegokolwiek produktu lub usługi, która “zawiera” AI.

Nie możesz pozwać psa

To było przewidywalnym rozwojem: w tym samym czasie, gdy administracja Stanów Zjednoczonych stara się usunąć biurokratyczne przeszkody z amerykańskiej kultury rozwoju AI, tak aby mogła konkurować na równych warunkach z Chinami, fakt, że prominentne systemy AI są rzadko szkolone na materiałach objętych prawami autorskimi, powoduje rosnący poziom pozwów ze strony wpływowych graczy, takich jak Disney i Universal.

Plan działania AI z 2025 roku (powyższy link) wspomina bardzo niewiele o posiadaczach praw autorskich; i zdeterminowana postawa kraju w kierunku pogrzebania tej kwestii, w stylu chińskim, wydaje się odzwierciedlona w jego determinacji, aby narzucić federalne wolności laissez faire niezgodnym stanom.

Jednak obawy wymienione w raporcie FT mogą sięgać poza kwestie praw autorskich, w przypadku systemów AI, które mają kontrolę agencką nad infrastrukturą lub innymi podstawowymi systemami, takimi jak mechanizmy rynku akcji.

Sądy Stanów Zjednoczonych w dużej mierze ustaliły, że AI będzie ponosić odpowiedzialność za swoje błędy, z właścicielami odpowiedzialnymi za ich przygody – podobnie jak właściciel psa będzie odpowiedzialny za jakiekolwiek urazy wyrządzone przez swojego psa. To jest ponury perspektywa dla firm ubezpieczeniowych, które – wśród innych problemów – są zaniepokojone możliwością generatywnej AI do halucynacji w potencjalnie szkodliwy sposób.

Budowa zabezpieczeń

Jednak ten przewidywalny wzrost skarg ze strony sektora ubezpieczeniowego ma znaczną historyczną precedensję w obszarach takich jak przemysł jądrowy, kosmos i lotnictwo, a także rozwój szczepionek, wśród innych – okoliczności, w których Stany Zjednoczone ustaliły, że rządowe gwarancje i ubezpieczenie są niezbędne dla nowych technologii, aby nie oddać postępu krajom (takim jak były Związek Radziecki lub Francja), gdzie ubezpieczenie infrastruktury przez państwo było znacznie bardziej powszechne.

Jądrowy

Na przykład w 1957 roku Kongres ograniczył odpowiedzialność przemysłu jądrowego za pomocą ustawy Price-Anderson Act, ponieważ stało się oczywiste, że bez rządowego zabezpieczenia, prywatni ubezpieczyciele nigdy nie wesprą energii atomowej.

Prawo ograniczyło, ile mogą być pozwane utilities i producenci reaktorów, i ustanowiło mechanizm wypłat, aby pokryć wypadki. Zostało odnowione wielokrotnie, ostatnio z przedłużeniem do 2065 roku, w tegorocznym projekcie budżetu.

Aerospace

Ponadto rząd Stanów Zjednoczonych chroni komercyjne firmy startowe przed katastrofalną odpowiedzialnością, pokrywając szkody przekraczające to, co prywatni ubezpieczyciele są skłonni ubezpieczyć. Zgodnie z Commercial Space Launch Act, dostawcy startów są zobowiązani do posiadania określonej kwoty ubezpieczenia, z federalną rekompensatą, która wchodzi w grę powyżej tego, obecnie ograniczonej do 2,7 miliarda dolarów.

Ten dodatkowy zabezpieczenie, nigdy nie wykorzystany, pozwala firmom takim jak SpaceX i Blue Origin na rozwój programów kosmicznych bez obawy o nieubezpieczone niepowodzenie.

Terrorizm

Nieoczekiwanie, po wydarzeniach z 11 września, branża ubezpieczeniowa, która poprzednio pokrywała takie ryzyka w ramach ogólnych polis, nie chciała już pokrywać strat spowodowanych terroryzmem i wojną. W tym przypadku, jak zwykle, rząd federalny Stanów Zjednoczonych odpowiedział, rozszerzając pokrycie jako federalny obowiązek w krótkim do średniego okresie.

Terrorism Risk Insurance Act (TRIA) z 2002 roku utworzył federalne ubezpieczenie zabezpieczające straty i roszczenia związane z terroryzmem, pokrywając znaczną część strat terrorystycznych powyżej określonych franszyz – akt, który został odnowiony wielokrotnie, w tym pod administracją Trumpa.

Rozwój szczepionek

Właśnie gdy rozwój i dyfuzja szczepionek zaczęły mieć szeroki wpływ na zdrowie publiczne w latach 70. i 80., plaga pozwów przeciwko producentom zwiększyła znacznie koszty odpowiedzialności dla producentów.

Aby uniknąć kryzysu zdrowia publicznego, Kongres utworzył National Childhood Vaccine Injury Act, przekierowując roszczenia ubezpieczeniowe do dedykowanego Sądu Szczepionkowego, i zabezpieczając producentów przed większością odpowiedzialności, o ile standardy bezpieczeństwa były spełnione, pozwalając na innowacje, jednocześnie rekompensując pacjentom z puli rządowej.

Podejście to zostało później utrzymane przez Sąd Najwyższy i rozszerzone podczas pandemii COVID-19 zgodnie z PREP Act, który zwolnił producentów z odpowiedzialności za zatwierdzone środki zaradcze.

Czy AI to inny przypadek?

W ten sposób Kongres wielokrotnie interweniował, aby przełamać impas innowacji, gdy ubezpieczyciele wahali się przed ubezpieczeniem sektorów publicznych.

Jednak chociaż trudno twierdzić, że ryzyko AI przewyższa ryzyko systemów jądrowych, grupy ubezpieczeniowe twierdzą, że generatywna AI wprowadza systemiczne ryzyka, gdzie niekorzystne konsekwencje są potencjalnie “rodzimymi” dla normalnego funkcjonowania systemu, a nie wynikiem naruszenia, błędu ludzkiego, ataku lub innych bardziej znanych rodzajów wypadków lub przygód.

Pionier AI i laureat Nagrody Turinga Yoshua Bengio stwierdził na początku listopada, że firmy AI powinny być zobowiązane do posiadania ubezpieczenia odpowiedzialności, aby pokryć “ryzyka egzystencjalne”.

Jednak historia sugeruje, że zmuszanie firm AI do ubezpieczenia się bez pomocy rządowej nie jest najbardziej prawdopodobną ścieżką do przodu. Chociaż CEO OpenAI Sam Altman ostatnio wycofał się z sugestii, że AI powinno otrzymać wsparcie rządowe w stylu bankowym, trendy obecnej administracji wskazują, że nie pozostawi losów AI samemu rynkowi.

Mogące się ziścić środki

Jednym z możliwych sposobów do przodu jest federalny limit odpowiedzialności – ponowne rozpatrzenie ustawy Price-Anderson z 1957 roku, a także ustawy o szczepionkach, w postaci “ustawy o zabezpieczeniu AI” ograniczającej odpowiedzialność firm za pewne szkody związane z AI.

Wraz z federalnym funduszem rekompensat dla szkód związanych z AI, podobnym do wcześniejszego funduszu szkód szczepionkowych, takie podejście mogłoby chronić firmy przed “najgorszymi” scenariuszami pozwów, podobnie jak przemysł szczepionkowy i jądrowy zostały zabezpieczone w poprzednich dekadach.

Alternatywnie, model TRIA mógłby zostać dostosowany do celu, w postaci rządowego zabezpieczenia ubezpieczeniowego AI. To zmusiłoby ubezpieczycieli do oferowania ubezpieczeń odpowiedzialności AI, ale rząd federalny zgodziłby się zapłacić, na przykład, 80-90% strat powyżej pewnego progu.

Być może najmniej atrakcyjną opcją – częściowo dlatego, że mogłaby zainspirować krytykę “socjalistycznej” polityki w pewnych gałęziach rządu i elektoratu – byłaby bezpośrednie federalne ubezpieczenie lub zabezpieczenie, w którym rząd jest bezpośrednim ubezpieczycielem.

Taki poziom zaangażowania państwa jest zwykle zarezerwowany dla ograniczonych okresów w ewolucji krytycznych branż (takich jak przemysł jądrowy) lub dla scenariuszy zarządzania w czasie wojny.

W oparciu o ostatnie zachowanie, wydaje się prawdopodobne, że administracja Stanów Zjednoczonych będzie naciskać na przepisy zastępujące na szczeblu stanowym, aby uniemożliwić poszczególnym stanom ustanowienie praw, które mogłyby stworzyć unikalne scenariusze ubezpieczeniowe na poziomie stanowym, podważając szerszą inicjatywę federalną.

Podsumowanie

Ci, którzy sprzeciwiają się możliwości uzyskania przez AI takiego samego statusu “ratunku” jak banki, nie będą prawdopodobnie przyjmować rozwiązań wspieranych przez rząd w kwestiach ubezpieczeniowych wokół AI.

Jednak jest oczywiste, że obecna administracja Stanów Zjednoczonych traktuje AI jako “niezbędną infrastrukturę”, pomimo jej coraz bardziej rosnącej tendencji do błędów lub innych niepowodzeń.

Można argumentować, że rozległe zaangażowanie państwa w ubezpieczeniu AI jest równoznaczne z “przed-bailoutem” – trudnym sprzedawaniem w okresie, gdy entuzjazm rynku i gorączka inwestycyjna są zacienione przez rosnący strach przed pęknięciem bańki, a także przez publiczność, która jest jednocześnie przerażona i zachwycona w odniesieniu do generatywnej AI.

 

Pierwotnie opublikowane w poniedziałek, 24 listopada 2025

Pisarz na temat uczenia maszynowego, specjalista ds. syntezowania obrazów ludzi. Były kierownik treści badawczych w Metaphysic.ai.