Connect with us

Чи буде штучний інтелект потребувати такого самого виду соціального страхування, як ядерна енергетика?

Погляд Anderson

Чи буде штучний інтелект потребувати такого самого виду соціального страхування, як ядерна енергетика?

mm
AI-generated image: a robot on a floundering ship reaches for a life-preserver that is not there, under a placard reading 'INSURANCE', as the sea rises over the boat. GPT-image-1 and Firefly V3.

У США часто втручаються в галузі нових технологій, коли страховиків лякають, і це, здається, знову станеться з штучним інтелектом; але чи інші ризики цього разу?

 

Функція Поточна адміністрація США багаторазово демонструвала свою приверженість забезпеченню того, щоб свободи лезе фер, які Китай має при розробці систем штучного інтелекту, були віддзеркалені в Сполучених Штатах. Оскільки Америка зараз займає сильну виконавчу позицію та здійснює свій вплив досить важкою рукою, недавні події свідчать про те, що її політика штучного інтелекту може бути віддзеркалена в майбутньому законодавстві країн, які залежать від добрих відносин зі США.

Отже, буде цікаво побачити, як США відповідають на багатоопубліковану звернення до Конгресу від великих страховиків про дозвіл пропонувати поліси, які виключають покриття відповідальності, пов’язаної з системами штучного інтелекту, такими як чат-боти та агентські штучні інтелекти.

За даними звіту FT, згаданого вище, страхові групи AIG, Great American і WR Berkley серед інших звернулися за такими виключеннями.

FT зазначає, що WR Berkley просить про виключення, яке забороняє претензії, пов’язані з “бодь-яким реальним або передбачуваним використанням” штучного інтелекту або будь-якої служби чи продукту, який “включає” штучний інтелект.

Не можна судити собаку

Це був передбачуваний розвиток подій: в той самий час, коли адміністрація США намагається видалити червону стрічку з американської культури розробки штучного інтелекту, щоб вона могла конкурувати на рівних з Китаєм, той факт, що відомі системи штучного інтелекту рідко навчаються на матеріалах, очищених від правових вимог, викликає зростаючу хвилю судових процесів від впливових гравців, таких як Disney і Universal.

План дій США щодо штучного інтелекту 2025 року зазначає дуже мало про власників авторських прав; і країна здається намагається поховати питання, як це робить Китай, своєю рішучістю впровадити федеральну свободу на несумісних штатах.

Однак, проблеми, викладені в звіті FT, можуть виходити за рамки питань авторських прав, у випадку систем штучного інтелекту, які мають агентський контроль над інфраструктурою або іншими фундаментальними системами, такими як механізми фондового ринку.

Судова система США в цілому визначила, що штучний інтелект буде відповідальним за свої помилки, а їхні власники будуть відповідальними за його пригоди – так само, як власник собаки буде відповідальним за будь-які травми, заподіяні його собакою. Це похмура перспектива для страхових компаній, які, серед інших питань, турбуються про здатність генеративного штучного інтелекту галюцинувати потенційно шкідливим чином.

Асурансійна конструкція

Однак, цей передбачуваний підйом скарг зі сторони страхового сектора має суттєву історичну передумову в галузях, таких як ядерна промисловість, космос і авіація, а також розробка вакцин, серед інших – обставини, при яких США визначили, що урядові гарантії та страхове покриття були необхідними для важливих нових технологій, щоб не поступитися прогресом країнам (таким як колишній СРСР або Францією), де державне страхове покриття інфраструктури було набагато поширенішим.

Ядерна галузь

Наприклад, у 1957 році Конгрес обмежив відповідальність ядерної промисловості законом Прайса-Андерсона, оскільки стало очевидним, що без урядової підтримки приватні страховики ніколи не підтримали атомну енергетику.

Закон обмежив суму, за яку можна було судити комунальні підприємства та виробників реакторів, і створив механізм виплат для покриття аварій. Його пізніше багаторазово поновлювали, останнім разом у вигляді продовження до 2065 року у цьому році в законопроєкті про витрати.

Авіація та космос

Крім того, уряд США захищає комерційні компанії, що здійснюють запуски в космос, від катастрофічної відповідальності, покриваючи збитки, які перевищують те, що приватні страховики готові страхувати. За законом про комерційні запуски в космос, постачальники запусків зобов’язані мати певну суму страхового покриття, з федеральною компенсацією, яка починається вище цього рівня, зараз обмежену сумою у 2,7 мільярда доларів.

Ця друга мережа безпеки, ніколи не використовувалася, дозволяє компаніям, таким як SpaceX і Blue Origin, розробляти космічні програми без того, щоб бути паралізованими загрозою незастрахованої невдачі.

Тероризм

Не дивно, що після подій 11 вересня страхова промисловість, яка раніше покривала такі ризики за умовами загальних полісів, більше не бажала покривати збитки через тероризм і війну. У цьому випадку, як зазвичай, уряд США відповів розширенням покриття у вигляді федеральної обов’язкової страховки в короткій та середній перспективі.

Закон про страхування ризиків тероризму (TRIA) 2002 року створив федеральну страхову підтримку для збитків і претензій, пов’язаних з тероризмом, покриваючи велику частку збитків від тероризму вище зазначених франшиз – акт, який неодноразово поновлювався, включаючи адміністрацію Трампа.

Розробка вакцин

Як тільки розробка та розповсюдження вакцин почали мати широкий вплив на глобальне здоров’я в 1970-х і 1980-х роках, чума судових процесів проти виробників збільшувала витрати на відповідальність для виробників.

Щоб уникнути кризи громадського здоров’я, Конгрес створив Закон про національну відповідальність за травми дітей-вакцинованих, перенаправивши страхові претензії до спеціального суду з питань вакцин, та захистивши виробників від більшості відповідальності, якщо тільки стандарти безпеки не були дотримані, дозволяючи інноваціям продовжуватися, а пацієнтів компенсувати з урядового пула.

Цей підхід пізніше був підтверджений Верховним судом і розширений під час пандемії COVID-19 за допомогою Закону про підготовку до надзвичайних ситуацій, який звільнив виробників від відповідальності за затверджені заходи, прийняті проти них.

Чи є штучний інтелект іншим випадком?

Отже, Конгрес багаторазово втручається, щоб розблокувати інновації, коли страховики відмовляються страхувати сектори державного ризику.

Однак, хоча важко стверджувати, що ризики штучного інтелекту перевищують ризики ядерних систем, страхові групи стверджують, що генеративний штучний інтелект вводить системні ризики, де негативні наслідки потенційно “рідні” для нормальної роботи системи, а не результату порушення, людської помилки, атаки чи інших більш знайомих видів випадковості або пригоди.

Піонер штучного інтелекту та лауреат премії Тюрінга Йошуа Бенджіо заявив на початку листопада, що компанії зі штучним інтелектом повинні бути юридично зобов’язані мати страхування відповідальності, щоб покрити “екзистенційні ризики”.

Однак, історія свідчить про те, що примусові компанії зі штучним інтелектом страхувати себе без урядової допомоги не є найбільш ймовірним шляхом вперед. Хоча генеральний директор OpenAI Сем Альтман недавно відступив від пропозиції про те, що штучний інтелект повинен отримувати державну підтримку, подібну до підтримки банків, у разі необхідності, тенденція поточної адміністрації свідчить про те, що вона не залишить долю штучного інтелекту на волі ринку.

Можливі заходи

Одним із можливих шляхів вперед є федеральний ліміт відповідальності – перегляд Закону Прайса-Андерсона 1957 року, а також Закону про вакцини, у вигляді “Закону про відповідальність штучного інтелекту” – обмеження відповідальності компаній за певні шкоди, пов’язані зі штучним інтелектом.

Разом із федеральним компенсаційним фондом для травм, пов’язаних зі штучним інтелектом, подібним до фонду травм від вакцин, цей підхід міг би захистити компанії від “найгірших” сценаріїв судових процесів, так само, як галузі вакцин і ядерної промисловості були захищені в попередні десятиліття.

Альтернативно, модель TRIA могла б бути адаптована для цієї мети у вигляді урядового страхового забезпечення штучного інтелекту. Це змусило б страховиків пропонувати страхування відповідальності штучного інтелекту, але федеральний уряд погодився б сплатити, наприклад, 80-90% будь-яких збитків вище певного порогу.

Можливо, найменш привабливим варіантом – частково через те, що це може викликати критику “соціалістичної” політики в певних галузях уряду та електорату – було б пряме федеральне страхування або гарантія, при якому уряд був би прямим страховиком.

Цей рівень державної участі зазвичай зарезервований для обмежених періодів у розвитку критичних галузей (наприклад, ядерної промисловості) або для воєнних управлінських сценаріїв.

Висновок

Ті, хто заперечує проти можливості того, що штучний інтелект отримає такий самий статус “викупу”, як банки, не будуть схвалювати рішуче державне забезпечення рішень страхових проблем навколо штучного інтелекту.

Однак, ясно, що поточна адміністрація США розглядає штучний інтелект як “важливу інфраструктуру”, незважаючи на свою зростаючу тенденцію до помилок або інших невдач.

Можна стверджувати, що широке державне забезпечення страхування штучного інтелекту є еквівалентним “передвикупу” – важка справа в період, коли ринок збудований і інвестори в захваті від страху перед тим, що може статися бульбашка лопне, а громадськість одночасно страхується і зачарована генеративним штучним інтелектом.

 

Перша публікація понеділка, 24 листопада 2025 року

Писатель про машинне навчання, домен-спеціаліст у сфері синтезу зображень людини. Колишній керівник дослідницького контенту в Metaphysic.ai.
Особистий сайт: martinanderson.ai
Контакт: [email protected]