Anderson์ ๊ด์
AI, ํต ์๋์ง์ ๊ฐ์ ์ฌํ ๋ณดํ์ ์๊ตฌํ ๊ฒ์ธ๊ฐ?

미국은 보험사가 새로운 기술 분야에서 겁을 먹으면 종종 개입했으며, 이것이 AI의 경우에도 발생할 가능성이 있습니다. 그러나 이번에는 위험이 다를까요?
기사 현재 미국 행정부는 중국이 AI 시스템 개발에서享하는 자유를 미국에서도 반영하겠다는 의지를 반복적으로 보여왔습니다. 미국이 강한 행정적 입장을 취하고 있으며, 최근의 사건들은 미국의 AI 정책이 미국과 좋은 관계를 유지하는 국가들의 미래 법안에서 반영될 수 있음을 시사합니다.
따라서 미국이 주요 보험 회사들이 AI 시스템(예: 채팅봇, 에이전트 AI)과 관련된 책임을 제외하는 보험 정책을 제공하도록 의회에 요청한 것에 어떻게 반응하는지 관심있게 지켜보겠습니다.
FT 보고서에 따르면, AIG, Great American 및 WR Berkley를 포함한 여러 보험 그룹이 이러한 제외를 허용하도록 요청했습니다.
FT는 WR Berkley가 ‘AI를 사용하거나 포함하는’ 모든 서비스 또는 제품과 관련된 청구를 금지하는 제외를 요청했다고 보고했습니다.
개의 경우는 다르다
이것은 예상할 수 있는 발전입니다. 미국 행정부가 미국 AI 개발 문화에서 관료적인 장벽을 제거하여 중국과 경쟁할 수 있도록 하려는 동시에, 유명한 AI 시스템은 거의 권리 청구된 자료에서 훈련되지 않는다는 사실로 인해 디즈니 및 유니버설과 같은 영향력 있는 플레이어로부터 소송의 증가하는 물결을 일으키고 있습니다.
미국의 2025년 AI 행동 계획(위에 링크됨)은 저작권 소유자에 대해 거의 언급하지 않으며, 미국의 중국식 문제 매몰에 대한 의지는 연방 정부가 반대하는 주에 자유주의를 강요하려는 의지로 반영되는 것으로 보입니다.
그러나 FT 보고서에 언급된 우려는 저작권 문제를 넘어서, 인프라 또는 기본 시스템(예: 주식 시장 메커니즘)의 에이전트 제어를 갖는 AI 시스템의 경우에도 적용될 수 있습니다.
미국 사법부는 대략적으로 AI가 자신의 오류에 대해 책임을 지게 될 것이라고 판결했으며, 그 소유자는 그 미스어드벤처에 대해 책임을 지게 될 것이라고 판결했습니다. 이는 개의 주인과 마찬가지로 개의 주인도 개의 행동에 대해 책임을 지는 것과 같습니다. 이것은 보험 회사들에게는 어두운 전망입니다. 그들은 다른 문제들 외에도, 잠재적으로 유해한 방식으로 환각을 일으킬 수 있는 생성형 AI의 능력에 대해 우려하고 있습니다.
보증된 건설
그러나 보험 부문에서 예상할 수 있는 불평의 물결은 핵 산업, 우주 및 항공, 백신 개발 등을 포함한 여러 분야에서 미국이 정부 보증 및 보험 보장을 필수적인 것으로 간주하여 중요한 새로운 기술의 발전을 방해하지 않도록 하는 역사적인 전례가 있습니다.
원자력
예를 들어, 1957년 의회는 Price-Anderson 법으로 원자력 산업의 책임을 제한했습니다. 이는 민간 보험사가 원자력 에너지를 지원하지 않을 것이라는 것이 명백해졌기 때문입니다.
이 법은 공공 민사 책임을 제한하고 사고를 보상하는 지불 메커니즘을 설정했습니다. 이후 여러 번 갱신되었으며, 최근에는今年의 지출 법안으로 2065년까지 연장되었습니다.
항공 우주
또한 미국 정부는 상업적 우주 발사 회사들이 재난적인 책임을 부담하지 않도록 보호합니다. 즉, 민간 보험사가 보장하는 금액을 초과하는 손실에 대해 연방 정부가 보장합니다. 상업적 우주 발사법에 따라, 발사 제공업체는 고정된 보험 금액을 보유해야 하며, 현재 27억 달러로 상한선이 설정된 연방 보상이 그 이상의 금액에 대해 적용됩니다.
이 제2의 안전망은 SpaceX 및 Blue Origin과 같은 회사들이 우주 프로그램을 개발할 때 보험되지 않는 실패의 위협으로 인해 방해받지 않도록 허용합니다.
테러
9/11 사건 이후 보험 산업은 이전에는 일반 정책의 조건으로 이러한 위험을 보장했지만, 테러와 전쟁으로 인한 손실을 더 이상 보장하지 않으려 했습니다. 이 경우, 미국 연방 정부는 보통 짧은 기간에서 중기적으로 연방 의무로서 보장을 확장했습니다.
테러 위험 보험법(Terrorism Risk Insurance Act, TRIA)은 2002년에 설립되어 테러로 인한 손실 및 청구에 대한 연방 보험 백업을 제공했습니다. 이는 여러 번 갱신되었으며, 트럼프 행정부하에서도 갱신되었습니다.
백신 개발
백신 개발 및 확산이 1970년대와 1980년대에 광범위한 영향을 미치기 시작했을 때, 제조업체에 대한 소송의 물결이 증가하여 책임 비용을 크게 증가시켰습니다.
공중 보건 위기를 방지하기 위해 의회는 국가 아동 백신 부상법을 제정하여 보험 청구를 전용 백신 법원으로 돌렸으며, 안전 표준을 충족하는 경우 제조업체를 대부분의 책임에서 보호했습니다. 이를 통해 혁신을 계속할 수 있었으며, 정부 풀에서 환자들을 보상할 수 있었습니다.
이 접근 방식은 이후 대법원에서 확장되었으며, COVID-19 대유행期间 PREP 법에 따라 확대되었습니다.
AI는 다른 유형의 경우인가?
의회는 보험사가 공공 위험 부문을 보장하기를 주저할 때마다 혁신의 병목 현상을 깨뜨리기 위해 반복적으로 개입했습니다.
그러나 AI의 위험이 원자력 시스템의 위험을 초과한다고 주장하기는 어렵습니다. 보험 그룹은 생성형 AI가 ‘시스템적’ 위험을 도입한다고 주장하고 있습니다. 즉, 부정적인 결과는 시스템의 정상적인 작동의 결과일 수 있으며, 침해, 인적 오류, 공격 또는 기타 더 익숙한 종류의 우연 또는 사고의 결과가 아닙니다.
AI의先驱이자 튜링 상 수상자인 요슈아 벵기오(Yoshua Bengio)는 11월 초에 인공 지능 회사들은 ‘존재적 위험’을 다루기 위해 법적으로 책임 보험을 가지고 있어야 한다고 말했습니다.
그러나 역사적으로 볼 때, 정부의 지원 없이 AI 회사들을 보험에 가입하도록 강제하는 것은 앞으로 갈 가능성은 낮습니다. 오픈AI의 CEO 샘 알트만(Sam Altman)은 최근에 정부 후원 보증이 필요한 경우 AI에 은행 스타일의 정부 구제를 받는다는 제안을 번복했지만, 현재 미국 행정부의 추세는 AI의 운명을 단순히 시장에 맡기지 않을 것임을 시사합니다.
가능한 조치
한 가지 가능한 방향은 연방 책임 상한을 설정하는 것입니다. 즉, 1957年的 Price-Anderson 법과 백신 법을 ‘AI 보상법’의 형태로 재방문하는 것입니다. 이를 통해 특정 AI 관련 피해에 대한 회사들의 책임을 제한할 수 있습니다.
또한 연방 보상 기금을 마련하여 백신 부상 기금과 유사한 방식으로 AI 관련 부상에 대한 보상을 제공할 수 있습니다. 이를 통해 회사는 ‘최악의 경우’ 소송 시나리오에서 보호될 수 있을 것입니다.
또 다른 가능성은 TRIA 모델을 AI 목적으로 수정하는 것입니다. 즉, 보험 회사가 AI 책임 보험을 제공하도록 강제하지만, 연방 정부가 일정한 임계값 이상의 손실에 대해 80-90%를 지불하기로 동의하는 것입니다.
가장 매력없는 옵션은 직접적인 연방 보험 또는 보상입니다. 여기서 정부가 직접 보험자가 됩니다.
이러한 수준의 국가 간섭은 일반적으로 중요한 산업의 발전에 대한 제한된 기간 동안 또는 전쟁 관리 시나리오에서 예약됩니다.
결론
은행과 같은 AI에 대한 ‘구제’ 가능성에 반대하는 사람들은 정부가 후원하는 해결책을 환영하지 않을 것입니다.
그러나 현재 미국 행정부는 AI를 ‘중요한 인프라’로 간주하고 있으며, 그 오류나 기대에 미치지 못하는 경향이 증가하고 있음에도 불구하고如此합니다.
누군가는 광범위한 국가 간섭이 AI를 보험하는 것은 사실상의 ‘사전 구제’와 동일하다고 주장할 수 있습니다. 이는 시장의 흥분과 투자자들의 열광이 AI 버블의 붕괴와 공포에 의해 가려질 때, 그리고 대중이同时으로 AI에 대해 두려워하고 매료되어 있을 때에는 어려운 판매입니다.
2025년 11월 24일 처음 게시됨












