Ângulo de Anderson
O AI exigirá o mesmo tipo de seguro socializado que a energia nuclear?

Os EUA frequentemente interviram em áreas de tecnologia quando os seguradores se assustaram, e isso parece provável acontecer novamente com o AI; mas os riscos são diferentes desta vez?
Recursos A atual administração dos EUA tem demonstrado repetidamente seu compromisso em garantir que as liberdades laissez faire que a China desfruta no desenvolvimento de sistemas de AI sejam refletidas nos EUA. Como a América está atualmente tomando uma postura executiva forte e exercendo sua influência com uma mão pesada, os eventos recentes sugerem que suas políticas de AI podem ser ecoadas na legislação futura de países que dependem de boas relações com os EUA.
Portanto, será interessante ver como os EUA respondem ao pedido muito divulgado ao congresso de grandes seguradores para serem autorizados a oferecer políticas que excluam a cobertura de responsabilidades relacionadas a sistemas de AI como chatbots e AI agente.
De acordo com o relatório do FT acima, os grupos de seguros AIG, Great American e WR Berkley estão entre vários outros que buscam ter tais exclusões permitidas.
O FT observa que a WR Berkley pediu uma exclusão que proibiria reclamações envolvendo ‘qualquer uso real ou alegado’ de AI, ou qualquer serviço ou produto que ‘incorpore’ AI.
Você Não Pode Processar o Cachorro
Essa foi uma evolução previsível: ao mesmo tempo em que a administração dos EUA busca remover a burocracia da cultura de desenvolvimento de AI nos EUA, para que possa competir em um campo de jogo nivelado com a China, o fato de que sistemas de AI proeminentes raramente são treinados em materiais com direitos autorais é causando uma crescente onda de processos judiciais de jogadores influentes como Disney e Universal.
O plano de ação de AI dos EUA de 2025 (acima) menciona muito pouco sobre titulares de direitos autorais; e a determinação do país em forçar a liberdade laissez faire sobre estados dissidentes parece refletida em sua determinação em enterrar a questão, ao estilo da China.
No entanto, as preocupações delineadas no relatório do FT podem se estender além de questões de direitos autorais, no caso de sistemas de AI que têm controle agente de infraestrutura, ou outros sistemas fundamentais, como mecanismos de mercado de ações.
A justiça dos EUA determinou amplamente que o AI será responsabilizado por seus erros, com seus proprietários responsáveis por suas desventuras – muito como um proprietário de cachorro será responsável por qualquer lesão infligida por seu cachorro. Essa é uma perspectiva sombria para as companhias de seguros, que – entre outros problemas – estão preocupadas com a capacidade da AI gerativa de alucinar de maneiras potencialmente prejudiciais.
Construção Garantida
No entanto, essa onda previsível de reclamações do setor de seguros tem um precedente histórico considerável em áreas como a indústria nuclear, espaço e aviação, e desenvolvimento de vacinas, entre outros – circunstâncias em que os EUA determinaram que as garantias e cobertura de seguros do governo eram essenciais para novas tecnologias importantes, a fim de não ceder o progresso a países (como a antiga União Soviética ou a França) onde o seguro de infraestrutura apoiado pelo estado era muito mais comum.
Nuclear
Por exemplo, em 1957, o Congresso limitou a responsabilidade da indústria nuclear com a Lei Price-Anderson Act, pois havia se tornado evidente que, sem um apoio governamental, os seguradores privados nunca apoiariam a energia atômica.
A lei limitou quanto as utilidades e fabricantes de reatores poderiam ser processados e estabeleceu um mecanismo de pagamento para cobrir acidentes. Ela desde então foi renovada repetidamente, mais recentemente com uma extensão até 2065, na lei de gastos deste ano.
Aeroespacial
Além disso, o governo dos EUA protege as empresas de lançamento comercial de espaço contra responsabilidades catastróficas, cobrindo danos que excedem o que os seguradores privados subscrevem. Sob a Lei de Lançamento Comercial de Espaço, os provedores de lançamento são obrigados a ter um valor fixo de seguro, com a indenização federal entrando em vigor acima disso, atualmente limitada a $ 2,7 bilhões.
Essa rede de segurança secundária, nunca invocada, permite que empresas como a SpaceX e a Blue Origin desenvolvam programas espaciais sem serem impedidas pela ameaça de falha sem seguro.
Terrorismo
Não é surpreendente que, após os eventos de 11 de setembro, a indústria de seguros, que havia anteriormente coberto esses riscos nos termos de políticas gerais, não quisesse mais cobrir perdas devido a terrorismo e guerra. Nesse caso, como de costume, o governo federal dos EUA respondeu estendendo a cobertura como uma obrigação federal no curto a médio prazo.
A Lei de Seguro de Risco de Terrorismo (TRIA) de 2002 criou uma garantia de seguro federal para perdas e reclamações devido a terrorismo, cobrindo uma grande parte das perdas de terrorismo acima de dedutíveis estabelecidos – um ato que foi renovado várias vezes, incluindo sob a administração Trump.
Desenvolvimento de Vacinas
Assim como o desenvolvimento e difusão de vacinas começaram a ter um efeito generalizado na saúde global nos anos 70 e 80, uma praga de processos judiciais contra fabricantes aumentou significativamente os custos de responsabilidade para os fabricantes.
Para evitar uma crise de saúde pública, o Congresso criou a Lei Nacional de Lesões por Vacinas na Infância, desviando reclamações de seguro para um Tribunal de Vacinas dedicado e protegendo os fabricantes da maioria da responsabilidade, desde que os padrões de segurança fossem atendidos, permitindo que a inovação continue enquanto compensa os pacientes de um pool governamental.
A abordagem foi posteriormente mantida pela Suprema Corte e expandida durante a pandemia de COVID-19 sob a Lei PREP, que isentou a responsabilidade do fabricante por contramedidas aprovadas.
O AI é um Caso Diferente?
Portanto, o Congresso interveio repetidamente para quebrar os gargalos de inovação quando os seguradores se recusaram a subscrever setores de risco público.
No entanto, embora seja difícil argumentar que os riscos do AI excedem os da energia nuclear, os grupos de seguros estão argumentando que a AI gerativa introduz riscos sistêmicos, onde as consequências adversas são potencialmente ‘nativas’ do funcionamento normal de um sistema, em vez de um resultado de violação, erro humano, ataque ou outros tipos mais familiares de acidente ou desventura.
O pioneiro do AI e vencedor do Prêmio Turing, Yoshua Bengio, afirmou no início de novembro que as empresas de inteligência artificial deveriam ser legalmente obrigadas a ter seguro de responsabilidade, para cobrir ‘riscos existenciais’.
No entanto, a história sugere que forçar as empresas de AI a se segurar, sem ajuda governamental, não é o caminho provável à frente. Embora o CEO da OpenAI, Sam Altman, tenha retroativado uma sugestão de que o AI deveria receber um apoio governamental estilo banco, como necessário, a tendência da atual administração dos EUA indica que não deixará o destino do AI ao mercado aberto.
Medidas Possíveis
Uma possível maneira de avançar é um teto de responsabilidade federal – uma revisitação da Lei Price-Anderson de 1957, bem como da Lei de Vacinas, na forma de um ‘Ato de Indenização de AI’ que limita a responsabilidade das empresas por certos danos relacionados ao AI.
Juntamente com um fundo federal de compensação para lesões relacionadas ao AI, semelhante ao fundo de lesões por vacinas anterior, essa abordagem poderia proteger as empresas de cenários de processos judiciais ‘pior caso’, muito como a indústria de vacinas e nuclear havia sido protegida nas décadas anteriores.
Alternativamente, o modelo TRIA poderia ser adaptado para esse propósito, na forma de um apoio de seguro de AI do governo. Isso forçaria os seguradores a oferecer cobertura de responsabilidade de AI, mas o governo federal concordaria em pagar, por exemplo, 80-90% de quaisquer perdas acima de um determinado limiar.
Talvez a opção menos atraente – em parte porque pode inspirar críticas de política ‘socialista’ em certos ramos do governo e do eleitorado – seria seguro ou indenização federal direta, em que o governo é o segurador direto.
Esse nível de envolvimento estatal é geralmente reservado para períodos limitados na evolução de indústrias críticas (como a indústria nuclear), ou para cenários de gestão de guerra.
Conclusão
Aqueles que se opõem à possibilidade do AI obter o mesmo status de ‘resgate’ que os bancos não estão provavelmente dispostos a abraçar soluções fortemente apoiadas pelo governo para os dilemas de seguro em torno do AI.
No entanto, está claro que a atual administração dos EUA vê o AI como ‘infraestrutura essencial’, apesar de sua tendência cada vez maior a errar, ou de outra forma, não atender às expectativas.
Pode-se argumentar que o envolvimento extensivo do estado no seguro de AI é equivalente a um ‘pré-resgate’ – uma venda difícil em um período em que o entusiasmo do mercado e a febre dos investidores são obscurecidos pelo medo de uma bolha, e por um público que é simultaneamente temeroso e enfeitiçado em relação à AI gerativa.
Publicado pela primeira vez na segunda-feira, 24 de novembro de 2025












