Connect with us

La nueva plantilla de GPAI de la Comisión Europea: ¿Qué significa esto para la formación de IA?

Líderes de opinión

La nueva plantilla de GPAI de la Comisión Europea: ¿Qué significa esto para la formación de IA?

mm

En julio, la Comisión Europea (CE) publicó una nueva plantilla de inteligencia artificial de propósito general (GPAI). Esto significa que los proveedores de IA deben revelar el contenido introducido en los modelos para entrenarlos. Esto llega después de meses y meses de titulares sobre creadores que alegan que el contenido se utilizó sin consentimiento para entrenar a la IA.

Con esta nueva plantilla, la UE ha dejado claro su posición: la transparencia ya no es negociable. El entrenamiento de “caja negra”, donde se crea algo sin revelar su funcionamiento interno, no será una opción para los desarrolladores de IA. Esto marca un cambio significativo, ya que operar en Europa ahora requerirá una visibilidad total de los datos de entrada y la procedencia de los datos de entrenamiento, lo que obligará a reevaluar la recopilación y el uso de los datos.

Muchos han señalado la diferencia marcada entre esto y el reciente Plan de Acción de IA de EE. UU., que se centra mucho en la desregulación. Al igual que con cualquier nueva ley o regulación, las empresas ahora deben evaluar exactamente cómo la plantilla de GPAI afectará sus operaciones.

Si operan en varias regiones, también lo harán con el Plan de Acción de IA de EE. UU., lo que confundirá aún más las cosas. Debido a la naturaleza compleja de estos y al hecho de que regular el desarrollo de IA de esta manera es un territorio inexplorado, es probable que los resultados de los desarrolladores difieran mucho.

Desglosando la plantilla del modelo de IA de propósito general

En julio de este año, la Comisión Europea publicó una plantilla obligatoria para los proveedores de GPAI para que puedan publicar un resumen público de los datos utilizados para entrenar sus modelos. Como parte del Acta de IA de la UE, los proveedores deben revelar categorías de datos como conjuntos de datos de acceso público, datos con licencia privada, contenido web raspado, datos de usuario y datos sintéticos. El objetivo es permitir que los titulares de derechos de autor, los usuarios y los desarrolladores downstream ejerzan sus derechos legales según la ley de la UE.

Los GPT se entrenan con grandes cantidades de datos; sin embargo, en el mercado actual, hay poca información disponible sobre el origen de estos datos. El resumen público que establece esta plantilla proporcionará una visión general completa de los datos utilizados para entrenar un modelo, enumerará las principales colecciones de datos y explicará otras fuentes utilizadas.

Comparar y contrastar, Plan de Acción de IA de EE. UU.

En comparación, EE. UU. está decidido a ganar la carrera de IA y mantener su ventaja competitiva sobre China, ya que la administración Trump anunció su Plan de Acción de IA a principios del verano. Este nuevo marco de IA tiene como objetivo acelerar la construcción de centros de datos de alta intensidad energética que alimentan los sistemas de IA al facilitar las regulaciones ambientales. Al mismo tiempo, busca aumentar la exportación global de tecnologías de IA estadounidenses. Con 90 recomendaciones, el plan refleja los crecientes esfuerzos de EE. UU. por mantenerse por delante de sus competidores globales.

El plan se centra en tres pilares básicos: acelerar la innovación, construir la infraestructura de IA de América y fomentar el liderazgo en la diplomacia y la seguridad de la IA a nivel internacional.

Como parte de esto, un punto clave del plan destacó el impulso de “código abierto” de América para impulsar tanto la innovación como la accesibilidad. De manera similar, el plan destaca cómo el gobierno de EE. UU. “llevará el ejemplo” en cuanto al crecimiento de la IA, a través de la capacitación, el intercambio de talentos y la expansión de la adopción en diversas industrias.

Con este plan, EE. UU. tiene como objetivo simplificar todas las regulaciones tecnológicas actuales, particularmente las ambientales, para asegurarse de que la legislación no esté frenando el crecimiento, mientras se fomenta una distribución internacional más amplia del software y el hardware de IA de EE. UU. Este enfoque “anti-regulatorio” marca un cambio claro de los marcos anteriores centrados en la ética, la transparencia y la innovación responsable, pasando a un plan de acción más agresivo de “innovación primero”.

La pieza que falta

Vale la pena dar un paso atrás en este punto y considerar si estos actos, aunque diferentes, podrían sufrir de los mismos defectos que harán que los desarrolladores vean una falta de valor al adherirse a ellos. Los enfoques de la UE y EE. UU. dejan un vacío crítico en torno a la propiedad intelectual en los conjuntos de datos de entrenamiento de IA. El Acta de IA de la UE obliga a resumir los datos de entrenamiento y a una política de cumplimiento de derechos de autor, pero no establece un marco escalable para identificar o licenciar obras con derechos de autor.

En EE. UU., no existen reglas específicas, lo que deja a las empresas de IA para navegar un marco legal en evolución que se ve moldeado por sentencias judiciales y disputas en curso con titulares de derechos. Más allá del texto legal, lo que falta es el lado práctico; ninguno de los enfoques establece métodos viables a nivel industrial para detectar contenido protegido a gran escala, verificar el uso legítimo o simplificar la licencia. Hasta que se definan soluciones como estas, la incertidumbre sobre los derechos de autor en el entrenamiento de IA seguirá siendo un desafío importante para la industria.

El costo oculto de que las empresas salten la trazabilidad de IA

A pesar de algunos de los defectos de estas regulaciones, se asumirá que harán que los desarrolladores de IA se centren mucho en cómo mantenerse a flote desde una perspectiva legal, pero esto no siempre es el caso. De hecho, la verdadera división en IA en este momento no está entre la regulación de la UE y la de EE. UU., sino entre las empresas que están invirtiendo en trazabilidad hoy y aquellas que apostarán a que no tendrán que hacerlo. Esto es una repetición de lo que vimos años atrás con la implementación del Reglamento General de Protección de Datos (RGPD), donde las empresas que construyeron la privacidad desde el diseño no solo evitaron multas, sino que también ganaron la confianza del consumidor y un acceso más fluido a otros mercados que más tarde reflejaron los estándares del RGPD.

El mismo patrón puede estar emergiendo con la IA. La trazabilidad de los datos de entrenamiento y las decisiones del modelo probablemente se convertirán en una base global, y las empresas que retrasen esto tendrán que rediseñar sus sistemas en el futuro. Volver a agregar documentación, seguimiento de procedencia y características de auditoría a un sistema existente es mucho más costoso y complejo que construirlos desde el principio, lo que desvía la atención de los despliegues más enfocados en la rentabilidad que la empresa quiere completar.

En otras palabras, la trazabilidad y la transparencia no son complementos opcionales; deben estar integrados en los sistemas de IA desde el día uno. Las empresas que los tratan como un después pensamiento riesgo estancar la innovación, enfrentar represalias regulatorias y perder la carrera de forma indefinida.

La IA ética necesita unidad global

Desde una perspectiva macro, estos enfoques polarizados crean un problema real para las empresas globales. Las empresas en mercados de “toque ligero” como EE. UU. pueden escalar más rápido a corto plazo, pero cuando deciden entrar en la UE, enfrentan un muro de cumplimiento: las reglas de trazabilidad y documentación del Acta de IA requieren capacidades que nunca construyeron.

Reacondicionar el seguimiento de la procedencia, la documentación y las características de auditoría en un sistema existente es costoso, lento y disruptivo, especialmente porque la trazabilidad es una de las partes más intensivas en recursos del cumplimiento. Es el mismo patrón que vimos con el RGPD, donde los recién llegados a la privacidad desde el diseño lucharon con reformas costosas y retrasaron el acceso al mercado, mientras que los primeros en moverse ganaron una ventaja duradera.

Viktorija Lapenyte es la Jefa de Asesoría Legal de Producto en Oxylabs. Con más de una década de experiencia legal en el sector de las tecnologías de la información, Viktorija Lapėnytė ha desarrollado una profunda experiencia en la navegación de desafíos comerciales y regulatorios complejos como asesoría legal interna. Hoy en día, Viktorija es la Jefa de Asesoría Legal de Producto en Oxylabs, una plataforma líder en el mercado de recolección de inteligencia web. El equipo de Viktorija se especializa en las complejidades legales de las tecnologías de datos emergentes, desde el cumplimiento y la gestión de riesgos regulatorios hasta la privacidad de los datos y las discusiones a nivel de la industria sobre la adquisición responsable de datos.