Regulación
Código de Conducta de IA de la UE está a punto de impactar la regulación

La Comisión Europea ha introducido recientemente un Código de Conducta que podría cambiar la forma en que operan las empresas de IA. No se trata solo de otro conjunto de directrices, sino de una revisión completa de la supervisión de la IA que incluso los jugadores más grandes no pueden ignorar.
¿Qué lo hace diferente? Por primera vez, estamos viendo reglas concretas que podrían obligar a empresas como OpenAI y Google a abrir sus modelos para pruebas externas, un cambio fundamental en la forma en que se desarrollan y despliegan los sistemas de IA en Europa.
Los nuevos actores clave en la supervisión de la IA
La Comisión Europea ha creado un marco que se centra específicamente en lo que ellos llaman sistemas de IA con “riesgo sistémico”. Estamos hablando de modelos entrenados con más de 10^25 FLOPs de potencia computacional – un umbral que GPT-4 ya ha superado.
Las empresas deberán informar sobre sus planes de entrenamiento de IA dos semanas antes de que incluso comiencen.
En el centro de este nuevo sistema se encuentran dos documentos clave: el Marco de Seguridad y Seguridad (SSF) y el Informe de Seguridad y Seguridad (SSR). El SSF es una hoja de ruta integral para gestionar los riesgos de la IA, que cubre todo, desde la identificación inicial de riesgos hasta las medidas de seguridad continuas. Mientras que el SSR sirve como una herramienta de documentación detallada para cada modelo individual.
Pruebas externas para modelos de IA de alto riesgo
La Comisión está exigiendo pruebas externas para modelos de IA de alto riesgo. Esto no es una verificación de calidad interna estándar – expertos independientes y la Oficina de IA de la UE están examinando estos sistemas.
Las implicaciones son grandes. Si eres OpenAI o Google, de repente necesitas dejar que expertos externos examinen tus sistemas. El borrador establece explícitamente que las empresas deben “garantizar pruebas de expertos independientes antes de la implementación”. Eso es un gran cambio desde el enfoque actual de autorregulación.
Surge la pregunta: ¿Quién está calificado para probar estos sistemas de IA increíblemente complejos? La Oficina de IA de la UE está entrando en un territorio que nunca ha sido cartografiado antes. Necesitarán expertos que puedan entender y evaluar la nueva tecnología de IA mientras mantienen la confidencialidad estricta sobre lo que descubran.
Este requisito de pruebas externas podría convertirse en obligatorio en toda la UE a través de un acto de implementación de la Comisión. Las empresas pueden tratar de demostrar el cumplimiento a través de “medios alternativos adecuados”, pero nadie está seguro de qué significa eso en la práctica.
La protección de derechos de autor se vuelve seria
La UE también se está poniendo seria con los derechos de autor. Están obligando a los proveedores de IA a crear políticas claras sobre cómo manejan la propiedad intelectual.
La Comisión está apoyando el estándar robots.txt – un archivo simple que le dice a los rastreadores web dónde pueden y no pueden ir. Si un sitio web dice “no” a través de robots.txt, las empresas de IA no pueden ignorarlo y entrenar en ese contenido de todos modos. Los motores de búsqueda no pueden penalizar a los sitios por usar estas exclusiones. Es un movimiento de poder que devuelve a los creadores de contenido al asiento del conductor.
Las empresas de IA también tendrán que evitar activamente los sitios web de piratería cuando estén recopilando datos de entrenamiento. La UE incluso les está señalando su “Lista de vigilancia de falsificaciones y piratería” como punto de partida.
Qué significa esto para el futuro
La UE está creando un campo de juego completamente nuevo para el desarrollo de IA. Estos requisitos van a afectar todo, desde cómo las empresas planifican sus proyectos de IA hasta cómo recopilan sus datos de entrenamiento.
Cada empresa de IA importante ahora se enfrenta a una elección. Necesitan:
- Abrir sus modelos para pruebas externas
- Figurarse qué significan esos misteriosos “medios alternativos” de cumplimiento
- O potencialmente limitar sus operaciones en el mercado de la UE
El cronograma aquí es importante. Esto no es alguna regulación lejana en el futuro – la Comisión se está moviendo rápidamente. Lograron reunir a unos 1,000 partes interesadas divididas en cuatro grupos de trabajo, todos trabajando en los detalles de cómo funcionará esto.
Para las empresas que construyen sistemas de IA, los días de “moverse rápido y figurar las reglas más tarde” podrían estar llegando a su fin. Necesitarán comenzar a pensar en estos requisitos ahora, no cuando se vuelvan obligatorios. Eso significa:
- Planificar auditorías externas en su cronograma de desarrollo
- Configurar sistemas de cumplimiento de derechos de autor robustos
- Construir marcos de documentación que coincidan con los requisitos de la UE
El impacto real de estas regulaciones se desarrollará en los próximos meses. Mientras que algunas empresas pueden buscar soluciones alternativas, otras integrarán estos requisitos en sus procesos de desarrollo. El marco de la UE podría influir en cómo se desarrolla la IA a nivel global, especialmente si otras regiones siguen con medidas de supervisión similares. A medida que estas reglas pasan del borrador a la implementación, la industria de la IA enfrenta su mayor cambio regulatorio hasta ahora.










