Líderes de opinión
La brecha de gobernanza: Por qué la regulación de la IA siempre estará rezagada

La innovación evoluciona a velocidad de máquina, mientras que la gobernanza se mueve a velocidad humana. A medida que la adopción de la IA crece exponencialmente, la regulación se está quedando atrás, lo que es bastante típico cuando se trata de tecnología. En todo el mundo, los gobiernos y otras entidades están luchando por regular la IA, pero abundan los enfoques fragmentados y desiguales.
Parte del desafío es que no existe tal cosa como un diseño de tecnología apolítico. Hay una serie de regulaciones y propuestas, desde el Acta de IA de la Unión Europea hasta los espacios de regulación de EE. UU., cada uno con su propia filosofía. Mientras que la gobernanza de la IA inherentemente sigue a la innovación, el verdadero desafío es gestionar la seguridad y la política de manera responsable dentro de ese retraso.
La naturaleza de la brecha: Innovación primero, supervisión después
El retraso regulatorio es un subproducto inevitable del progreso tecnológico. Por ejemplo, Henry Ford no estaba desarrollando el Modelo T con un enfoque principal en la seguridad vial y las reglas de la carretera. Los patrones regulatorios históricamente siguen a la innovación; ejemplos recientes incluyen la privacidad de los datos, la cadena de bloques y las redes sociales. La evolución rápida de la IA supera la formación y aplicación de políticas. En otras palabras, el carro ha estado antes del caballo durante un tiempo.
Parte del desafío es que los formuladores de políticas a menudo reaccionan al daño en lugar de anticipar el riesgo, lo que crea ciclos de gobernanza reactiva. El problema no es el retraso en sí, sino la falta de mecanismos adaptativos para mantenerse al día con los modelos de amenazas emergentes, y la falta de voluntad para comprometer una ventaja competitiva por la seguridad. Es un escenario de “carrera hacia el fondo”; estamos erosionando nuestra propia seguridad colectiva por ganancias competitivas localizadas.
Un parche global de gobernanza de la IA que representa filosofías fragmentadas
Los enfoques actuales de gobernanza de la IA en el mundo varían enormemente.
En la UE, el Acta de IA presentado el año pasado es muy ético y basado en riesgos. El uso de la IA se evalúa según el nivel de riesgo, con algunos considerados inaceptables y, por lo tanto, riesgos prohibidos. EE. UU., por otro lado, ha adoptado más de un modelo de espacio de regulación que enfatiza la flexibilidad de la innovación. Algunos podrían describirlo como una excepción para la innovación, mientras que los críticos lo podrían llamar un cheque en blanco.
También está el proceso de Hiroshima, que contiene la intención de coordinación global pero con un seguimiento limitado; cada nación del G7 todavía se enfoca en la dominancia doméstica de la IA.
En EE. UU., el asunto ha sido dejado en gran medida a los estados, lo que garantiza efectivamente una falta de regulación efectiva. El gobierno federal hace esto a veces precisamente porque puede ser ineficaz. Los estados están creando nuevos espacios de regulación para atraer a las empresas de tecnología y la inversión, pero es poco probable que haya una regulación significativa a nivel estatal; solo excepciones otorgadas.
El Reino Unido ha estado en una lucha doméstica e internacional para establecerse como una potencia independiente y feroz después del Brexit. A través de la desregulación y el esquema de “Nivelación” del gobierno, la introducción de espacios de regulación no es ninguna sorpresa. El gobierno del Reino Unido querrá que el Reino Unido sea una superpotencia de la IA para ventajas políticas internas y externas y estabilidad.
La UE se enfoca más en la seguridad del consumidor, pero también en la fuerza de su mercado compartido. Esto tiene sentido, dado el historial de la UE con la regulación patchwork. El cumplimiento compartido, las normas y el comercio transfronterizo son clave para hacer que la UE sea lo que es. Todavía requieren espacios de regulación, pero también cada estado miembro debe tener uno operativo para la misma fecha.
Estos son solo algunos de los reglamentos, pero posiblemente los más prominentes. El punto clave es que hay marcos disjointos que carecen de definiciones compartidas, mecanismos de aplicación y interoperabilidad transfronteriza. Esto está dejando brechas para que los atacantes las exploten.
La naturaleza política de los protocolos
Ninguna regulación de la IA puede ser verdaderamente neutral; cada elección de diseño, guardia y regulación refleja intereses subyacentes gubernamentales o corporativos. La regulación de la IA se ha convertido en una herramienta geopolítica; las naciones la utilizan para asegurar una ventaja económica o estratégica. Los controles de exportación de chips son un ejemplo actual; sirven como una gobernanza de la IA indirecta.
La única regulación introducida efectivamente hasta ahora ha sido para obstaculizar intencionalmente un mercado. La carrera global por la supremacía de la IA mantiene la gobernanza como un mecanismo para la competencia en lugar de la seguridad colaborativa.
Seguridad sin fronteras, pero gobernanza con ellas
El problema espinoso principal aquí es que las amenazas habilitadas por la IA trascienden las fronteras, mientras que la regulación permanece confinada. Las amenazas en evolución rápida de hoy incluyen ataques a los sistemas de la IA y ataques que utilizan los sistemas de la IA. Estas amenazas cruzan jurisdicciones, pero la regulación permanece siloizada. La seguridad se acorrala en un rincón, mientras que las amenazas cruzan toda la internet.
Ya estamos empezando a ver el abuso de herramientas de la IA legítimas por actores de amenazas globales que explotan controles de seguridad débiles. Por ejemplo, se ha visto actividad maliciosa con el uso de herramientas de creación de sitios de la IA que son más como clonadores de sitios y pueden ser fácilmente abusados para crear infraestructura de phishing. Estas herramientas se han utilizado para impersonar páginas de inicio de sesión para todo, desde servicios de redes sociales populares hasta agencias nacionales de policía.
Hasta que los marcos de gobernanza reflejen la estructura sin fronteras de la IA, los defensores permanecerán limitados por leyes fragmentadas.
De la regulación reactiva a la defensa proactiva
El retraso regulatorio es inevitable, pero la estagnación no lo es. Necesitamos una gobernanza adaptativa y predictiva con marcos que evolucionen con la tecnología; se trata de pasar de la regulación reactiva a la defensa proactiva. Idealmente, esto se vería como:
- Desarrollo de estándares internacionales compartidos para la clasificación de riesgos de la IA.
- Participación ampliada en la configuración de estándares más allá de los gobiernos y corporaciones principales. La gobernanza de internet ha buscado (con éxito mixto) utilizar un modelo de partes interesadas múltiples sobre uno multilateral. Aunque es imperfecto, ha tenido un impacto enorme en hacer que internet sea una herramienta para todos y minimizar la censura y los cierres políticos.
- Fomentar la diversidad de pensamiento en la gobernanza.
- Un mecanismo para el informe de incidentes y la transparencia. La falta de regulaciones a menudo también significa una falta de requisitos de informe. Es poco probable que haya un requisito para informar al público sobre el daño causado por errores o elecciones de diseño dentro de los espacios de regulación en el futuro cercano.
Aunque la brecha de gobernanza nunca desaparecerá, los marcos colaborativos, transparentes e inclusivos pueden evitar que se convierta en una vulnerabilidad permanente en la seguridad global.












