Connect with us

Требует ли ИИ такого же вида социального страхования, как ядерная энергетика?

Взгляд Anderson

Требует ли ИИ такого же вида социального страхования, как ядерная энергетика?

mm
AI-generated image: a robot on a floundering ship reaches for a life-preserver that is not there, under a placard reading 'INSURANCE', as the sea rises over the boat. GPT-image-1 and Firefly V3.

В США часто вмешивались в новые технологические области, когда страховщики стали осторожными, и это, кажется, произойдет снова с ИИ; но отличаются ли риски в этот раз?

 

Особенность Нынешняя администрация США неоднократно демонстрировала свою приверженность обеспечению того, чтобы свободы laissez faire, которые Китай наслаждается при разработке систем ИИ, были отражены в США. Поскольку Америка в настоящее время занимает сильную исполнительную позицию и оказывает свое влияние довольно тяжелой рукой, недавние события предполагают, что ее политику в области ИИ могут отражать будущие законодательные акты стран, которые полагаются на хорошие отношения с США.

Поэтому будет интересно увидеть, как США отреагируют на многочисленные просьбы к конгрессу от крупных страховщиков разрешить им предлагать полисы, которые исключают покрытие ответственности, связанной с системами ИИ, такими как чат-боты и агентные ИИ.

Согласно отчету FT, ссылка которого находится выше, страховые группы AIG, Great American и WR Berkley являются одними из многих, кто добивается таких исключений.

FT отмечает, что WR Berkley попросил об исключении, которое запретит претензии, связанные с ‘любым фактическим или предполагаемым использованием’ ИИ или любой услугой или продуктом, который ‘включает’ ИИ.

Нельзя судить собаку

Это было предсказуемым развитием: в то же время, когда администрация США стремится удалить бюрократические препоны из американской культуры разработки ИИ, чтобы она могла конкурировать на равных с Китаем, тот факт, что известные системы ИИ редко обучаются на материалах, очищенных от правовых претензий, вызывает растущий массив судебных исков от влиятельных игроков, таких как Disney и Universal.

План действий США по ИИ на 2025 год (ссылка выше) упоминает очень мало о правообладателях; и apparent импульс страны к закопанию этого вопроса, в стиле Китая, кажется, отражается в ее решимости навязать федеральную laissez faire несогласным штатам.

Однако проблемы, изложенные в отчете FT, могут выходить за рамки проблем с авторскими правами в случае систем ИИ, которые имеют агентный контроль над инфраструктурой или другими фундаментальными системами, такими как механизмы фондового рынка.

Судебная система США в целом определила, что ИИ будет привлечен к ответственности за свои ошибки, с ответственностью их владельцев за его приключения – точно так же, как владелец собаки будет привлечен к ответственности за любые травмы, нанесенные его собакой. Это мрачный перспектива для страховых компаний, которые – среди других проблем – обеспокоены возможностью генеративного ИИ залучать в потенциально вредных способах.

Строительство с гарантиями

Однако это предсказуемое возражение со стороны страхового сектора имеет значительный исторический прецедент в областях, таких как ядерная промышленность, космос и авиация, а также разработка вакцин, среди прочих – обстоятельства, при которых США определили, что государственные гарантии и страховое покрытие являются необходимыми для важных новых технологий, чтобы не уступить прогресс странам (таким как бывший Советский Союз или Франция), где государственное страхование инфраструктуры было гораздо более распространено.

Ядерная

Например, в 1957 году Конгресс ограничил ответственность ядерной промышленности с помощью закона Прайса-Андерсона Акта, поскольку стало очевидно, что без государственного гаранта частные страховщики никогда не поддержат атомную энергию.

Закон ограничил, насколько можно было судить коммунальные предприятия и производителей реакторов, и создал механизм выплат для покрытия аварий. Он был продлен несколько раз, последний раз с продлением до 2065 года в этом году в законе о расходах.

Аэрокосмическая

Кроме того, правительство США защищает коммерческие космические запуски от катастрофической ответственности, покрывая ущерб, превышающий то, что частные страховщики готовы застраховать. Согласно Закону о коммерческих космических запусках, поставщики запусков обязаны иметь фиксированную сумму страхования, с федеральной компенсацией, вступающей в силу выше этого, в настоящее время ограниченной суммой в 2,7 миллиарда долларов.

Эта вторичная сеть безопасности, никогда не использованная, позволяет компаниям, таким как SpaceX и Blue Origin, разрабатывать космические программы без того, чтобы быть обремененными угрозой нестрахуемого провала.

Терроризм

Неудивительно, что после событий 11 сентября страховая индустрия, которая ранее покрывала такие риски в рамках общих политик, больше не хотела покрывать потери, связанные с терроризмом и войной. В этом случае, как обычно, правительство США отреагировало, продлив покрытие в качестве федеральной обязанности в краткосрочной и среднесрочной перспективе.

Закон о страховании риска терроризма (TRIA) 2002 года создал федеральную страховую сеть безопасности для потерь и претензий, связанных с терроризмом, покрывая большую часть потерь от терроризма выше указанных франшиз – акт, который был продлен несколько раз, включая при администрации Трампа.

Разработка вакцин

Точно так же, как разработка и распространение вакцин начали иметь широкое влияние на глобальное здравоохранение в 1970-х и 1980-х годах, масса судебных исков против производителей увеличила стоимость ответственности заметно для производителей.

Чтобы избежать кризиса в области общественного здравоохранения, Конгресс создал Национальный закон о травмах, связанных с детскими вакцинами, перенаправив страховые претензии в специальный суд по вакцинам, и защищая производителей от большинства ответственности, пока стандарты безопасности соблюдаются, позволяя инновациям продолжаться, а пациентам получать компенсацию из государственного пула.

Подход был позже поддержан Верховным судом и расширен во время пандемии COVID-19 в соответствии с законом PREP, который освободил производителей от ответственности за одобренные контрмеры.

Является ли ИИ другим случаем?

Таким образом, Конгресс неоднократно вмешивался, чтобы разрушить инновационные тупики, когда страховщики колебались в поддержке секторов с общественными рисками.

Однако, хотя трудно утверждать, что риски ИИ превышают риски ядерных систем, страховые группы утверждают, что генеративный ИИ вводит системные риски, где неблагоприятные последствия потенциально ‘родны’ для нормальной работы системы, а не являются результатом нарушения, человеческой ошибки, атаки или других более знакомых видов происшествий или приключений.

Пионер ИИ и лауреат премии Тьюринга Йошуа Бенджио заявил в начале ноября, что компании по искусственному интеллекту должны быть юридически обязаны иметь страхование ответственности, чтобы покрыть ‘экзистенциальные риски’.

Однако история предполагает, что заставление компаний ИИ страховать себя, лишенных государственной помощи, не является вероятным путем вперед. Хотя генеральный директор OpenAI Сэм Альтман недавно отступил от предложения, что ИИ должен получить государственную поддержку, аналогичную банковской, тенденция нынешней администрации США предполагает, что она не оставит судьбу ИИ на милость свободного рынка.

Возможные меры

Одним из возможных путей вперед является федеральный лимит ответственности – пересмотр акта Прайса-Андерсона 1957 года, а также закона о вакцинах, в форме ‘закона об ИИ-индемнитете’, ограничивающего ответственность компаний за определенные вреды, связанные с ИИ.

Вместе с федеральным фондом компенсаций за травмы, связанные с ИИ, аналогичным ранее созданному фонду по вакцинам, этот подход мог бы защитить компании от ‘худших сценариев’ судебных исков, точно так же, как отрасли вакцин и ядерной промышленности были защищены в предыдущие десятилетия.

Альтернативно, модель TRIA могла бы быть адаптирована для этой цели, в форме государственного страхового обеспечения ИИ. Это заставило бы страховщиков предлагать страхование ответственности ИИ, но федеральное правительство согласилось бы оплатить, например, 80-90% любых потерь выше определенного порога.

Может быть, наименее привлекательный вариант – частично потому, что он может вызвать критику ‘социалистической’ политики в определенных ветвях правительства и избирателей – был бы прямое федеральное страхование или индемнитет, когда правительство является прямым страховщиком.

Этот уровень государственного участия обычно зарезервирован для ограниченных периодов в эволюции критически важных отраслей (таких как ядерная промышленность) или для военных управленческих сценариев.

На основе недавнего поведения кажется вероятным, что администрация США будет добиваться нормативных обходов на уровне штата, чтобы предотвратить установление отдельными штатами законов, которые могли бы создать уникальные страховые сценарии на уровне каждого штата, подрывая более широкую федеральную инициативу.

Заключение

Те, кто возражает против возможности того, что ИИ получит тот же статус ‘спасения’, что и банки, вряд ли примут решение о сильно государственно поддерживаемых решениях страховых проблем ИИ.

Однако ясно, что нынешняя администрация США рассматривает ИИ как ‘критическую инфраструктуру’, несмотря на его все более растущую тенденцию к ошибкам или другим недочетам.

Можно утверждать, что обширное государственное участие в страховании ИИ является своего рода ‘предварительным спасением’ – трудная продажа в период, когда рыночный энтузиазм и инвесторский френзи омрачаются растущим страхом пузыря и страхом общества, которое одновременно испугано и околдовано генеративным ИИ.

 

Опубликовано впервые в понедельник, 24 ноября 2025 года

Писатель о машинном обучении, специалист в области синтеза человеческих изображений. Бывший руководитель исследовательского контента в Metaphysic.ai.

Раскрытие информации о рекламе: Unite.AI придерживается строгих редакционных стандартов, чтобы предоставлять читателям точную информацию и новости. Мы можем получать вознаграждение, если вы переходите по ссылкам на продукты, которые мы рассмотрели.