Connect with us

Líderes de opinión

Repensar el código abierto en la era de la inteligencia artificial generativa

mm

El modelo de código abierto – una ética de desarrollo de software en la que el código fuente se pone a disposición del público de forma gratuita para su redistribución o modificación – ha sido durante mucho tiempo un catalizador de la innovación. El ideal nació en 1983 cuando Richard Stallman, un desarrollador de software, se frustró con la naturaleza de caja negra de su impresora de código cerrado que no funcionaba.

Su visión despertó el movimiento de software libre, allanando el camino para el ecosistema de código abierto que impulsa gran parte de la innovación de internet y software de hoy en día.

Pero eso fue hace más de 40 años.

Hoy en día, la inteligencia artificial generativa, con sus desafíos técnicos y éticos únicos, está cambiando el significado de “apertura”, exigiendo que revisitemos y repensemos el paradigma de código abierto – no para abandonarlo, sino para adaptarlo.

IA y las libertades de código abierto

Las cuatro libertades fundamentales del software de código abierto – la capacidad de ejecutar, estudiar, modificar y redistribuir cualquier código de software – entran en conflicto con la naturaleza de la inteligencia artificial generativa de varias maneras:

  • Ejecutar: Los modelos de IA a menudo requieren infraestructuras y costos computacionales muy altos, lo que limita el acceso debido a las limitaciones de recursos.
  • Estudiar y modificar: Los modelos de IA son increíblemente complejos, por lo que entender y alterarlos sin acceso al código y a los datos que lo informan es un desafío significativo.
  • Redistribuir: Muchos modelos de IA restringen la redistribución por diseño, particularmente aquellos con pesos entrenados y conjuntos de datos propiedad de la plataforma.

La erosión de estos principios básicos no se debe a una intención maliciosa, sino a la complejidad y el costo de los sistemas de IA modernos. De hecho, los costos financieros de entrenar modelos de IA de última generación han aumentado dramáticamente en los últimos años – se informa que el entrenamiento de GPT-4 de OpenAI incurrió en costos de hasta $78 millones, excluyendo los salarios del personal, con gastos totales que superan $100 millones. ​

La complejidad de la “IA de código abierto”

Un modelo de IA verdaderamente abierto requeriría transparencia total del código fuente de inferencia, código fuente de entrenamiento, pesos del modelo y datos de entrenamiento. Sin embargo, muchos modelos etiquetados como “abiertos” solo lanzan el código de inferencia o pesos parciales, mientras que otros ofrecen licencias limitadas o restringen el uso comercial por completo.

Esta apertura imparcial crea la ilusión de principios de código abierto, mientras que en la práctica se queda corta.

Considera que un análisis de la Open Source Initiative (OSI) encontró que varios modelos de lenguaje grande populares que afirman ser de código abierto – incluyendo Llama2 y Llama 3.x (desarrollados por Meta), Grok (X), Phi-2 (Microsoft) y Mixtral (Mistral AI) – son incompatibles estructuralmente con los principios de código abierto.

Desafíos de sostenibilidad e incentivación

La mayoría del software de código abierto se construyó sobre esfuerzos impulsados por voluntarios o financiados con subvenciones, en lugar de infraestructuras de alto costo y computación intensiva. Los modelos de IA, por otro lado, son costosos de entrenar y mantener, y se espera que los costos aumenten. El CEO de Anthropic, Dario Amodei, predice que eventualmente podría costar tanto como $100 mil millones entrenar un modelo de vanguardia.

Sin un modelo de financiación sostenible o una estructura de incentivación, los desarrolladores se enfrentan a la elección entre restringir el acceso a través de licencias de código cerrado o no comerciales, o arriesgarse a un colapso financiero.

Conceptos erróneos sobre “pesos abiertos” y licencias

La accesibilidad de los modelos de IA se ha vuelto cada vez más confusa, con muchas plataformas que se comercializan como “abiertas” mientras imponen restricciones que contradicen fundamentalmente los principios de código abierto. Esta “magia” se manifiesta de varias maneras:

  • Los modelos etiquetados como “pesos abiertos” pueden prohibir el uso comercial por completo, manteniéndolos más como curiosidades académicas que como herramientas prácticas para que el público las explore y desarrolle.
  • Algunos proveedores ofrecen acceso a modelos preentrenados pero guardan celosamente sus conjuntos de datos de entrenamiento y metodologías, lo que hace imposible reproducir o verificar sus hallazgos de manera significativa.
  • Muchas plataformas imponen restricciones de redistribución que impiden a los desarrolladores construir sobre o mejorar los modelos para sus comunidades, incluso si pueden “acceder” al código.

En estos casos, “abierto para la investigación” es solo un eufemismo para “cerrado para los negocios”. El resultado es una forma deshonesta de bloqueo de proveedor, donde las organizaciones invierten tiempo y recursos en plataformas que parecen accesibles de forma abierta, solo para descubrir limitaciones críticas cuando intentan ampliar o comercializar las aplicaciones.

La confusión resultante no solo frustra a los desarrolladores. En realidad, socava la confianza en el ecosistema de IA. Establece expectativas poco realistas entre las partes interesadas que asumen razonablemente que la “IA abierta” es comparable a las comunidades de software de código abierto, donde se mantienen la transparencia, los derechos de modificación y la libertad comercial.

Retraso legal

El rápido avance de la IA ya está superando el desarrollo de marcos legales adecuados, creando una red compleja de desafíos de propiedad intelectual que comparten las preocupaciones preexistentes.

El primer campo de batalla legal importante se centra en el uso de datos de entrenamiento. Los modelos de aprendizaje profundo extraen grandes conjuntos de datos de Internet, como imágenes y texto de páginas web disponibles públicamente. Esta gran recopilación de datos ha encendido debates feroces sobre derechos de propiedad intelectual. Las empresas de tecnología argumentan que sus sistemas de IA estudian y aprenden de materiales con derechos de autor para crear contenido nuevo y transformador. Los propietarios de derechos de autor, por otro lado, sostienen que estas empresas de IA copian ilegalmente sus obras, generando contenido competitivo que amenaza sus medios de vida.

La propiedad de obras derivadas generadas por IA representa otra ambigüedad legal. Nadie está seguro de cómo clasificar el contenido generado por IA, excepto la Oficina de Derechos de Autor de EE. UU., que establece que “si la IA genera completamente el contenido, no puede estar protegido por derechos de autor”.

La incertidumbre legal que rodea a la IA generativa – particularmente en cuanto a la infracción de derechos de autor, la propiedad de obras generadas por IA y el contenido no licenciado en los datos de entrenamiento – se vuelve aún más problemática a medida que emergen los modelos de IA fundamentales como herramientas de importancia geopolítica: las naciones que compiten para desarrollar capacidades de IA superiores pueden estar menos inclinadas a restringir el acceso a los datos, lo que pone a los países con protecciones de PI más estrictas en desventaja.

Qué debe convertirse en código abierto en la era de la IA

El tren de la IA generativa ya ha salido de la estación y no muestra signos de frenar. Esperamos construir un futuro en el que la IA fomente la innovación en lugar de sofocarla. En ese caso, los líderes tecnológicos necesitan un marco que garantice un uso comercial seguro y transparente, promueva la innovación responsable, aborde la propiedad y licencia de datos, y diferencie entre “abierto” y “gratis”.

Un concepto emergente, la Licencia de Código Abierto Comercial, puede ofrecer una vía hacia adelante proponiendo acceso gratuito para uso no comercial, acceso con licencia para uso comercial y reconocimiento y respeto por la procedencia y la propiedad de los datos.​​

Para adaptarse a esta nueva realidad, la comunidad de código abierto debe desarrollar modelos de licencia de código abierto específicos para IA, formar asociaciones público-privadas para financiar estos modelos y establecer estándares de confianza para la transparencia, la seguridad y la ética.

El código abierto cambió el mundo una vez. La inteligencia artificial generativa lo está cambiando de nuevo. Para preservar el espíritu de la apertura, debemos evolucionar la letra de su ley, reconociendo las demandas únicas de la IA mientras abordamos los desafíos de frente para crear un ecosistema inclusivo y sostenible.

El Dr. Yair Adato es el fundador y CEO de Bria, la empresa creada para establecer una plataforma de inteligencia artificial generativa sin riesgos y de código abierto. Su visión era crear una plataforma de inteligencia artificial generativa que siga los principios de inteligencia artificial responsable y redefina los conceptos de derechos de autor y propiedad intelectual para que la propiedad de datos y la inteligencia artificial generativa puedan coexistir.

Un visionario en su campo, el Dr. Adato tiene un doctorado en Ciencias de la Computación en el campo de la visión por computadora de la Universidad Ben-Gurion en colaboración con la Universidad de Harvard. Con más de 50 patentes que construyen el puente entre la inteligencia artificial y el uso comercial, el Dr. Adato cuenta con un récord notable de impulsar la innovación en inteligencia artificial hacia adelante. Antes de liderar Bria, el Dr. Adato se desempeñó como CTO en Trax Retail, lo que permitió el crecimiento rápido de Trax desde una startup en sus primeras etapas con 20 empleados hasta un unicornio con un personal de casi 1000. Ha servido o sirve como miembro de la junta asesora de varias empresas, incluyendo Sparx, Vicomi, Tasq, DataGen y Anima.