Líderes de opinión
Golpeando el equilibrio: Enfoques globales para mitigar los riesgos relacionados con la IA

No es un secreto que durante los últimos años, las tecnologías modernas han estado empujando los límites éticos bajo los marcos legales existentes que no fueron diseñados para adaptarse a ellos, lo que resulta en minas legales y regulatorias. Para tratar de combatir los efectos de esto, los reguladores están optando por proceder de diversas maneras diferentes entre países y regiones, lo que aumenta las tensiones globales cuando no se puede encontrar un acuerdo.
Estas diferencias regulatorias se destacaron en una reciente cumbre de Acción de IA en París. La declaración final del evento se centró en cuestiones de inclusividad y apertura en el desarrollo de la IA. Curiosamente, solo mencionó de manera general la seguridad y la confiabilidad, sin enfatizar riesgos específicos relacionados con la IA, como las amenazas de seguridad. Redactada por 60 naciones, el Reino Unido y los EE. UU. estuvieron conspicuamente ausentes de las firmas de la declaración, lo que muestra lo poco que hay de consenso en este momento entre los países clave.
Abordar los riesgos de la IA a nivel global
El desarrollo y la implementación de la IA están regulados de manera diferente dentro de cada país. Sin embargo, la mayoría se encuentra en algún punto entre los dos extremos: las posturas de los Estados Unidos y la Unión Europea (UE).
La forma de los EE. UU.: innovar primero, regular después
En los Estados Unidos, no hay leyes federales que regulen la IA en particular, en su lugar, se basa en soluciones basadas en el mercado y directrices voluntarias. Sin embargo, hay algunas piezas clave de legislación para la IA, incluida la Ley de Iniciativa Nacional de IA, que tiene como objetivo coordinar la investigación federal de IA, la Ley de Autorización de la Administración Federal de Aviación y el marco de gestión de riesgos voluntario del Instituto Nacional de Estándares y Tecnología (NIST).
El panorama regulatorio de los EE. UU. sigue siendo fluido y está sujeto a grandes cambios políticos. Por ejemplo, en octubre de 2023, el presidente Biden emitió una Orden Ejecutiva sobre Desarrollo y Uso Seguro, Seguro y Confiiable de la Inteligencia Artificial, que estableció estándares para la infraestructura crítica, mejoró la ciberseguridad impulsada por la IA y reguló los proyectos de IA financiados por el gobierno federal. Sin embargo, en enero de 2025, el presidente Trump revocó esta orden ejecutiva, en un giro hacia la innovación y alejándose de la regulación.
El enfoque de los EE. UU. tiene sus críticos. Notan que su “naturaleza fragmentada” conduce a una red compleja de reglas que “carecen de estándares ejecutables“, y tiene “lagunas en la protección de la privacidad“. Sin embargo, la postura en general está en flujo; en 2024, los legisladores estatales presentaron casi 700 piezas de nueva legislación de IA y ha habido múltiples audiencias sobre la IA en la gobernanza, así como sobre la IA y la propiedad intelectual. Aunque es evidente que el gobierno de los EE. UU. no se aleja de la regulación, está buscando formas de implementarla sin tener que comprometer la innovación.
La forma de la UE: priorizar la prevención
La UE ha elegido un enfoque diferente. En agosto de 2024, el Parlamento Europeo y el Consejo introdujeron la Ley de Inteligencia Artificial (AI Act), que ha sido considerada la pieza de regulación de IA más completa hasta la fecha. Al emplear un enfoque basado en el riesgo, la ley impone reglas estrictas a los sistemas de IA de alta sensibilidad, como los utilizados en la atención médica y la infraestructura crítica. Las aplicaciones de bajo riesgo enfrentan solo una supervisión mínima, mientras que en algunas aplicaciones, como los sistemas de puntuación social administrados por el gobierno, están completamente prohibidos.
En la UE, el cumplimiento es obligatorio no solo dentro de sus fronteras, sino también para cualquier proveedor, distribuidor o usuario de sistemas de IA que operen en la UE, o que ofrezcan soluciones de IA a su mercado, incluso si el sistema se ha desarrollado fuera. Es probable que esto suponga desafíos para los proveedores de EE. UU. y otros proveedores no pertenecientes a la UE de productos integrados, ya que trabajan para adaptarse.
Las críticas al enfoque de la UE incluyen su presunta falla para establecer un estándar de oro para los derechos humanos. También se ha señalado la excesiva complejidad y la falta de claridad. Los críticos están preocupados por los requerimientos técnicos muy exigentes de la UE, porque llegan en un momento en que la UE está buscando fortalecer su competitividad.
Encontrar el terreno medio regulatorio
Mientras tanto, el Reino Unido ha adoptado un marco “ligero” que se encuentra en algún punto entre la UE y los EE. UU., y se basa en valores fundamentales como la seguridad, la equidad y la transparencia. Los reguladores existentes, como la Oficina del Comisionado de Información, tienen el poder de implementar estos principios dentro de sus respectivos dominios.
El gobierno del Reino Unido ha publicado un Plan de Acción de Oportunidades de IA, que describe medidas para invertir en los fundamentos de la IA, implementar la adopción transversal de la IA y fomentar sistemas de IA “hechos en casa”. En noviembre de 2023, el Reino Unido fundó el Instituto de Seguridad de la IA (AISI), que evolucionó a partir del Grupo de Trabajo de IA de la Frontera. El AISI se creó para evaluar la seguridad de los modelos de IA avanzados, colaborando con los principales desarrolladores para lograrlo a través de pruebas de seguridad.
Sin embargo, las críticas al enfoque del Reino Unido para regular la IA incluyen capacidades de aplicación limitadas y una falta de coordinación entre la legislación sectorial. Los críticos también han notado la falta de una autoridad regulatoria central.
Al igual que el Reino Unido, otros países importantes también han encontrado su propio lugar en algún punto del espectro de los EE. UU. y la UE. Por ejemplo, Canadá ha introducido un enfoque basado en el riesgo con la propuesta de Ley de IA y Datos (AIDA), que está diseñada para equilibrar la innovación, la seguridad y las consideraciones éticas. Japón ha adoptado un enfoque “centrado en el ser humano” para la IA al publicar directrices que promueven el desarrollo de confianza. Mientras que en China, la regulación de la IA está controlada firmemente por el Estado, con leyes recientes que requieren que los modelos de IA generativa pasen evaluaciones de seguridad y se alineen con los valores socialistas. De manera similar al Reino Unido, Australia ha lanzado un marco de ética de IA y está explorando la actualización de sus leyes de privacidad para abordar los desafíos emergentes que plantea la innovación de la IA.
¿Cómo establecer la cooperación internacional?
A medida que la tecnología de la IA sigue evolucionando, las diferencias entre los enfoques regulatorios se vuelven cada vez más aparentes. Cada enfoque individual tomado con respecto a la privacidad de los datos, la protección del copyright y otros aspectos hace que sea más difícil alcanzar un consenso global coherente sobre los riesgos clave relacionados con la IA. En estas circunstancias, la cooperación internacional es crucial para establecer estándares básicos que aborden los riesgos clave sin restringir la innovación.
La respuesta a la cooperación internacional podría estar en organizaciones globales como la Organización para la Cooperación y el Desarrollo Económicos (OCDE), las Naciones Unidas y varias otras, que actualmente están trabajando para establecer estándares internacionales y directrices éticas para la IA. El camino hacia adelante no será fácil, ya que requiere que todos en la industria encuentren un terreno común. Si consideramos que la innovación se está moviendo a toda velocidad, el momento de discutir y llegar a un acuerdo es ahora.












