Connect with us

¿Requerirá la IA el mismo tipo de seguro socializado que la energía nuclear?

Ángulo de Anderson

¿Requerirá la IA el mismo tipo de seguro socializado que la energía nuclear?

mm
AI-generated image: a robot on a floundering ship reaches for a life-preserver that is not there, under a placard reading 'INSURANCE', as the sea rises over the boat. GPT-image-1 and Firefly V3.

EE. UU. ha intervenido con frecuencia en áreas de nueva tecnología cuando los aseguradores se asustaron, y esto parece probable que suceda nuevamente con la IA; pero ¿son diferentes los riesgos esta vez?

 

Característica La actual administración de EE. UU. ha demostrado repetidamente su compromiso de garantizar que las libertades laissez faire que China disfruta en el desarrollo de sistemas de IA sean reflejadas en los Estados Unidos. Dado que América está tomando actualmente una postura ejecutiva fuerte y ejerciendo su influencia con una mano muy pesada, los acontecimientos recientes sugieren que sus políticas de IA pueden ser repetidas en la legislación futura de países que dependen de buenas relaciones con los Estados.

Por lo tanto, será interesante ver cómo responde EE. UU. a la solicitud muy informada al congreso de los principales aseguradores para que se les permita ofrecer pólizas que excluyan la cobertura de responsabilidades relacionadas con sistemas de IA como chatbots y IA agente.

Según el informe de FT vinculado anteriormente, los grupos de seguros AIG, Great American y WR Berkley están entre una serie de otros que buscan tener dichas exclusiones permitidas.

El FT señala que WR Berkley ha solicitado una exclusión que prohibiría las reclamaciones que involucran ‘cualquier uso real o alegado’ de IA, o cualquier servicio o producto que ‘incorpore’ IA.

No se puede demandar al perro

Este fue un desarrollo predecible: al mismo tiempo que la administración de EE. UU. busca eliminar la burocracia de la cultura de desarrollo de IA en América, para que pueda competir en un campo de juego nivelado con China, el hecho de que los sistemas de IA prominentes rara vez se entrenen con material con derechos claros está causando una creciente oleada de demandas de jugadores influyentes como Disney y Universal.

El plan de acción de IA de EE. UU. de 2025 (vinculado anteriormente) menciona muy poco a los titulares de derechos de autor; y el impulso aparente del país hacia enterrar el asunto, al estilo de China, parece reflejado en su determinación de forzar la libertad federal laissez faire sobre los estados disidentes.

Sin embargo, las preocupaciones esbozadas en el informe de FT pueden extenderse más allá de los problemas de derechos de autor, en el caso de los sistemas de IA que tienen control agente de infraestructura, u otros sistemas fundamentales, como mecanismos de mercado de valores.

La judicatura de EE. UU. ha determinado en general que la IA será responsable de sus errores, con sus propietarios responsables de sus desventuras – al igual que un propietario de perro será responsable de cualquier lesión infligida por su perro. Esa es una perspectiva sombría para las compañías de seguros, que – entre otros problemas – están preocupadas por la capacidad de la IA generativa para alucinar de maneras potencialmente dañinas.

Construcción asegurada

Sin embargo, este aumento predecible de quejas del sector de seguros tiene un precedente histórico considerable en áreas como la industria nuclear, el espacio y la aviación, y el desarrollo de vacunas, entre otros – circunstancias en las que EE. UU. determinó que las garantías gubernamentales y la cobertura de seguros eran esenciales para nuevas tecnologías importantes, para no ceder el progreso a países (como la antigua Unión Soviética o Francia) donde el seguro de infraestructura respaldado por el estado era mucho más común.

Nuclear

Por ejemplo, en 1957, el Congreso limitó la responsabilidad de la industria nuclear con la Ley Price-Anderson, ya que se había vuelto evidente que sin un respaldo gubernamental, los aseguradores privados nunca apoyarían la energía atómica.

La ley limitó cuánto podían ser demandadas las empresas de servicios públicos y los fabricantes de reactores, y estableció un mecanismo de pago para cubrir accidentes. Ha sido renovada repetidamente desde entonces, más recientemente con una extensión hasta 2065, en la ley de gastos de este año.

Aeroespacio

Además, el gobierno de EE. UU. protege a las empresas de lanzamiento comercial de espacio de la responsabilidad catastrófica cubriendo daños que exceden lo que los aseguradores privados están dispuestos a suscribir. Bajo la Ley de Lanzamiento Comercial de Espacio, los proveedores de lanzamiento están obligados a llevar una cantidad fija de seguro, con una indemnización federal que comienza por encima de esa, actualmente limitada a $2.7 mil millones.

Esta red de seguridad secundaria, nunca ha sido invocada, permite que las empresas como SpaceX y Blue Origin desarrollen programas espaciales sin ser obstaculizadas por la amenaza de un fracaso no asegurable.

Terrorismo

No es de extrañar que, después de los eventos del 11 de septiembre, la industria de seguros, que había cubierto previamente tales riesgos bajo los términos de las pólizas generales, ya no deseara cubrir pérdidas debido al terrorismo y la guerra. En este caso, como de costumbre, el gobierno federal de EE. UU. respondió extendiendo la cobertura como una obligación federal a corto y mediano plazo.

La Ley de Seguro de Riesgo de Terrorismo (TRIA) de 2002 creó un seguro de respaldo federal para pérdidas y reclamaciones debido al terrorismo, cubriendo una gran parte de las pérdidas de terrorismo por encima de los deducibles establecidos – un acto que ha sido renovado múltiples veces, incluyendo bajo la administración de Trump.

Desarrollo de vacunas

Justo cuando el desarrollo y la difusión de vacunas comenzaron a tener un efecto generalizado en la salud global en las décadas de 1970 y 1980, una plaga de demandas contra los fabricantes aumentó notablemente los costos de responsabilidad para los fabricantes.

Para evitar una crisis de salud pública, el Congreso creó la Ley Nacional de Lesiones por Vacunas de la Infancia, desviando las reclamaciones de seguros a un Tribunal de Vacunas dedicado, y protegiendo a los fabricantes de la mayoría de la responsabilidad, siempre y cuando se cumplan los estándares de seguridad, permitiendo que la innovación continúe mientras se compensa a los pacientes de un grupo gubernamental.

El enfoque fue posteriormente respaldado por la Corte Suprema y ampliado durante la pandemia de COVID-19 bajo la Ley PREP, que eximió de responsabilidad a los fabricantes por contramedidas aprobadas.

¿Es la IA un caso diferente?

Así, el Congreso ha intervenido repetidamente para romper los cuellos de botella de la innovación cuando los aseguradores se negaron a suscribir sectores de riesgo público.

Sin embargo, aunque es difícil sostener que los riesgos de la IA superan los de los sistemas nucleares, los grupos de seguros están argumentando que la IA generativa introduce riesgos sistémicos, donde las consecuencias adversas son potencialmente ‘nativas’ del funcionamiento normal de un sistema, en lugar de ser el resultado de una violación, un error humano, un ataque o otros tipos de accidente o desventura más familiares.

El pionero de la IA y ganador del premio Turing Yoshua Bengio declaró a principios de noviembre que las empresas de inteligencia artificial deberían estar legalmente obligadas a tener seguro de responsabilidad, para cubrir ‘riesgos existenciales’.

Sin embargo, la historia sugiere que forzar a las empresas de IA a asegurarse, sin ayuda gubernamental, no es el camino probable hacia adelante. Aunque el CEO de OpenAI, Sam Altman, recientemente se retractó de una sugerencia de que la IA debería recibir apoyo gubernamental al estilo de los bancos, la tendencia de la actual administración de EE. UU. indica que no dejará el destino de la IA al mercado abierto solo.

Medidas posibles

Una posible forma de avanzar es un límite de responsabilidad federal – una revisión de la Ley Price-Anderson de 1957, así como la Ley de Vacunas, en la forma de una ‘Ley de Indemnización de IA’ que limite la responsabilidad de las empresas por ciertos daños relacionados con la IA.

Junto con un fondo de compensación federal para lesiones relacionadas con la IA, similar al fondo de lesiones por vacunas anterior, este enfoque podría proteger a las empresas de escenarios de demandas ‘peor de lo peor’, al igual que la industria de las vacunas y la nuclear habían sido protegidas en décadas anteriores.

Alternativamente, el modelo TRIA podría adaptarse para este propósito, en la forma de un respaldo de seguro de IA del gobierno. Esto obligaría a los aseguradores a ofrecer cobertura de responsabilidad de IA, pero el gobierno federal acordaría pagar, por ejemplo, el 80-90% de cualquier pérdida por encima de un umbral determinado.

Quizás la opción menos atractiva – en parte porque podría inspirar críticas de ‘política socialista’ en ciertas ramas del gobierno y el electorado – sería seguro o indemnización federal directa, en la que el gobierno es el asegurador directo.

Este nivel de participación estatal suele reservarse para períodos limitados en la evolución de industrias críticas (como la industria nuclear), o para escenarios de gestión en tiempos de guerra.

Basado en comportamiento reciente, parece probable que la administración de EE. UU. impulse anulaciones regulatorias a nivel estatal, para evitar que los estados individuales establezcan leyes que podrían crear escenarios de seguro únicos a nivel estatal, socavando una iniciativa federal más amplia.

Conclusión

Aquellos que se oponen a la posibilidad de que la IA obtenga el mismo estatus de ‘rescate’ que los bancos, no están probablemente dispuestos a aceptar soluciones respaldadas fuertemente por el gobierno a los dilemas de seguro que rodean a la IA.

Sin embargo, está claro que la actual administración de EE. UU. considera a la IA como ‘infraestructura esencial’, a pesar de su tendencia cada vez mayor a errar, o de otro modo no cumplir con las expectativas.

Se podría argumentar que la participación estatal extensa en el seguro de IA es equivalente a un ‘rescate anticipado’ – una venta difícil en un período en el que la emoción del mercado y la fiebre de los inversores están ensombrecidas por el creciente miedo a una burbuja que estalla, y por un público que está simultáneamente aterrorizado y embelesado en cuanto a la IA generativa.

 

Publicado por primera vez el lunes 24 de noviembre de 2025

Escritor sobre aprendizaje automático, especialista en síntesis de imágenes humanas. Anterior jefe de contenido de investigación en Metaphysic.ai.