Connect with us

Inteligencia artificial

El Inteligencia Artificial de Código Abierto Contraataca con Llama 4 de Meta

mm

En los últimos años, el mundo de la inteligencia artificial ha pasado de una cultura de colaboración abierta a una dominada por sistemas propietarios cerrados. OpenAI, una empresa literalmente fundada con “abierto” en su nombre, cambió a mantener en secreto sus modelos más poderosos después de 2019. Competidores como Anthropic y Google también construyeron inteligencia artificial de vanguardia detrás de paredes de API, accesibles solo en sus términos. Este enfoque cerrado se justificó en parte por intereses de seguridad y negocio, pero dejó a muchos en la comunidad lamentando la pérdida del espíritu de código abierto de los primeros tiempos.

Ahora, ese espíritu está montando un regreso. Los nuevos modelos Llama 4 de Meta señalan un intento audaz de revivir la inteligencia artificial de código abierto a los niveles más altos, y incluso los jugadores tradicionalmente guardados están tomando nota. El CEO de OpenAI, Sam Altman, admitió recientemente que la empresa estaba “en el lado equivocado de la historia” con respecto a los modelos abiertos y anunció planes para una “nueva variante de GPT-4 de peso abierto” más poderosa. En resumen, la inteligencia artificial de código abierto está contraatacando, y el significado y el valor de “abierto” están evolucionando.

(Fuente: Meta)

Llama 4: El Desafío de Meta a GPT-4o, Claude y Gemini

Meta presentó Llama 4 como otro desafío directo a los nuevos modelos de los pesos pesados de la inteligencia artificial, posicionándolo como una alternativa de peso abierto. Llama 4 viene en dos sabores disponibles hoy – Llama 4 Scout y Llama 4 Maverick – con especificaciones técnicas impresionantes. Ambos son modelos de mezcla de expertos (MoE) que activan solo una fracción de sus parámetros por consulta, lo que permite un tamaño total masivo sin costos de tiempo de ejecución aplastantes. Scout y Maverick cada uno manejan 17 mil millones de parámetros “activos” (la parte que funciona en cualquier entrada dada), pero gracias a MoE, Scout los distribuye en 16 expertos (109 mil millones de parámetros totales) y Maverick en 128 expertos (400 mil millones totales). El resultado: los modelos Llama 4 entregan un rendimiento formidable, y lo hacen con ventajas únicas que incluso algunos modelos cerrados carecen.

Por ejemplo, Llama 4 Scout presume de una ventana de contexto de 10 millones de tokens líder en la industria, órdenes de magnitud más allá de la mayoría de sus rivales. Esto significa que puede ingerir y razonar sobre documentos o bases de código verdaderamente masivos de una sola vez. A pesar de su escala, Scout es lo suficientemente eficiente como para ejecutarse en una sola GPU H100 cuando se cuantiza mucho, lo que sugiere que los desarrolladores no necesitarán una supercomputadora para experimentar con él.

Mientras que Llama 4 Maverick está ajustado para la máxima potencia. Las primeras pruebas muestran que Maverick iguala o supera a los mejores modelos cerrados en tareas de razonamiento, codificación y visión. De hecho, Meta ya está insinuando un hermano mayor aún, Llama 4 Behemoth, todavía en entrenamiento, que internamente “supera a GPT-4.5, Claude 3.7 Sonnet y Gemini 2.0 Pro en varios benchmarks de STEM”. El mensaje es claro: los modelos abiertos ya no son de segunda categoría; Llama 4 está apuntando al estado de la técnica.

Igualmente importante, Meta ha puesto a disposición de inmediato Llama 4 para su descarga y uso. Los desarrolladores pueden obtener Scout y Maverick desde el sitio oficial o Hugging Face bajo la licencia de la comunidad Llama 4. Eso significa que cualquier persona, desde un hacker de garaje hasta una empresa Fortune 500, puede meterse debajo del capó, ajustar el modelo a sus necesidades y desplegarlo en su propio hardware o en la nube. Esto es un contraste marcado con las ofertas propietarias como GPT-4o de OpenAI o Claude 3.7 de Anthropic, que se sirven a través de API de pago sin acceso a los pesos subyacentes.

Meta enfatiza que la apertura de Llama 4 se trata de empoderar a los usuarios: “Estamos compartiendo los primeros modelos de la manada Llama 4, que permitirán a las personas construir experiencias multimodales más personalizadas”. En otras palabras, Llama 4 es una herramienta destinada a estar en manos de desarrolladores e investigadores de todo el mundo. Al lanzar modelos que pueden rivalizar con los de GPT-4 y Claude en capacidad, Meta está reviviendo la noción de que la inteligencia artificial de alta gama no tiene que vivir detrás de una barrera de pago.

(Fuente: Meta)

¿Idealismo Auténtico o Juego Estratégico?

Meta presenta Llama 4 en términos grandiosos, casi altruistas. “Nuestro modelo de inteligencia artificial de código abierto, Llama, ha sido descargado más de mil millones de veces”, anunció recientemente el CEO Mark Zuckerberg recientemente, agregando que “la publicación de modelos de inteligencia artificial de código abierto es esencial para garantizar que las personas de todas partes tengan acceso a los beneficios de la inteligencia artificial”. Esta presentación pinta a Meta como el portador de la antorcha de la inteligencia artificial democratizada, una empresa dispuesta a compartir sus modelos de joya de la corona para el bien mayor. Y de hecho, la popularidad de la familia Llama respalda esto: los modelos han sido descargados a una escala asombrosa (saltando de 650 millones a mil millones de descargas totales en solo unos meses), y ya se utilizan en producción por empresas como Spotify, AT&T y DoorDash.

Meta señala con orgullo que los desarrolladores aprecian la “transparencia, personalización y seguridad” de tener modelos abiertos que pueden ejecutar ellos mismos, lo que “ayuda a alcanzar nuevos niveles de creatividad e innovación”, en comparación con las API de caja negra. En principio, esto suena como la antigua ética de software de código abierto (piense en Linux o Apache) aplicada a la inteligencia artificial, una victoria inequívoca para la comunidad.

Sin embargo, no se puede ignorar el cálculo estratégico detrás de esta apertura. Meta no es una organización benéfica, y “código abierto” en este contexto viene con salvedades. Notablemente, Llama 4 se lanza bajo una licencia de la comunidad especial, no una licencia permisiva estándar, así que aunque los pesos del modelo son gratuitos para usar, hay restricciones (por ejemplo, ciertos casos de uso de alto recurso pueden requerir permiso, y la licencia es “propia” en el sentido de que está elaborada por Meta). Esto no es la definición de código abierto de la Open Source Initiative (OSI), lo que ha llevado a algunos críticos a argumentar que las empresas están malutilizando el término.

En la práctica, el enfoque de Meta a menudo se describe como “peso abierto” o “código disponible” de inteligencia artificial: el código y los pesos están abiertos, pero Meta todavía mantiene algún control y no revela todo (por ejemplo, los datos de entrenamiento). Eso no disminuye la utilidad para los usuarios, pero muestra que Meta es estratégicamente abierta, manteniendo solo las riendas suficientes para protegerse (y quizás su ventaja competitiva). Muchas empresas están poniendo etiquetas de “código abierto” en modelos de inteligencia artificial mientras retienen detalles clave, subvirtiendo el verdadero espíritu de la apertura.

¿Por qué Meta abriría en absoluto? El panorama competitivo ofrece pistas. Lanzar modelos poderosos de forma gratuita puede construir rápidamente una amplia base de usuarios de desarrolladores y empresas, Mistral AI, una startup francesa, hizo exactamente esto con sus primeros modelos abiertos para ganar credibilidad como un laboratorio de primera línea.

Al sembrar el mercado con Llama, Meta garantiza que su tecnología se convierta en fundamental en el ecosistema de inteligencia artificial, lo que puede generar dividendos a largo plazo. Es una estrategia clásica de abrazar y ampliar: si todos usan su modelo “abierto”, indirectamente establecen estándares y quizás incluso dirijan a la gente hacia sus plataformas (por ejemplo, los productos de asistentes de inteligencia artificial de Meta aprovechan Llama. También hay un elemento de relaciones públicas y posicionamiento. Meta puede desempeñar el papel del innovador benevolente, especialmente en contraste con OpenAI, que ha enfrentado críticas por su enfoque cerrado. De hecho, el cambio de corazón de OpenAI sobre los modelos abiertos subraya en parte lo efectivo que ha sido el movimiento de Meta.

Después de que el modelo de código abierto chino innovador DeepSeek-R1 emergió en enero y superó a los modelos anteriores, Altman indicó que OpenAI no quería quedarse en el “lado equivocado de la historia”. Ahora OpenAI promete un modelo abierto con fuertes capacidades de razonamiento en el futuro, marcando un cambio de actitud. Es difícil no ver la influencia de Meta en ese cambio. La postura de Meta sobre el código abierto es a la vez auténtica y estratégica: amplía genuinamente el acceso a la inteligencia artificial, pero también es una maniobra astuta para flanquear a los rivales y dar forma al futuro del mercado en términos de Meta.

Implicaciones para Desarrolladores, Empresas y el Futuro de la Inteligencia Artificial

Para los desarrolladores, el resurgimiento de los modelos abiertos como Llama 4 es un respiro de aire fresco. En lugar de estar bloqueados en el ecosistema de un solo proveedor y sus tarifas, ahora tienen la opción de ejecutar inteligencia artificial potente en su propia infraestructura o personalizarla libremente.

Esto es un gran beneficio para las empresas en industrias sensibles, como finanzas, atención médica o gobierno, que son cautelosas al alimentar datos confidenciales a la caja negra de alguien más. Con Llama 4, un banco o un hospital podría desplegar un modelo de lenguaje de última generación detrás de su propio firewall, ajustándolo en datos privados, sin compartir un token con una entidad externa. También hay una ventaja de costo. Mientras que las tarifas de API basadas en el uso para los mejores modelos pueden dispararse, un modelo abierto no tiene tarifa de uso, solo se paga por la potencia de cómputo para ejecutarlo. Las empresas que escalan cargas de trabajo de inteligencia artificial intensivas pueden ahorrar significativamente al optar por una solución abierta que puedan escalar en casa.

No es de extrañar que estemos viendo más interés en los modelos abiertos por parte de las empresas; muchas han comenzado a darse cuenta de que el control y la seguridad de la inteligencia artificial de código abierto se alinean mejor con sus necesidades que los servicios cerrados de talla única.

Los desarrolladores también recogen beneficios en innovación. Con acceso a las entrañas del modelo, pueden ajustar y mejorar la inteligencia artificial para dominios de nicho (ley, biotecnología, lenguajes regionales, etc.) de maneras que una API cerrada podría nunca atender. La explosión de proyectos comunitarios impulsados alrededor de los modelos Llama anteriores, desde chatbots ajustados en conocimiento médico hasta aplicaciones de smartphone de aficionados que ejecutan versiones en miniatura, demostró cómo los modelos abiertos pueden democratizar la experimentación.

Sin embargo, el renacimiento de los modelos abiertos también plantea preguntas difíciles. ¿Se produce realmente la “democratización” si solo aquellos con recursos informáticos significativos pueden ejecutar un modelo de 400 mil millones de parámetros? Aunque Llama 4 Scout y Maverick bajan la barra de hardware en comparación con los modelos monolíticos, todavía son pesados, un punto que no se le escapa a algunos desarrolladores cuyas PC no pueden manejarlos sin ayuda en la nube.

La esperanza es que técnicas como la compresión de modelos, la destilación o las variantes de expertos más pequeñas puedan hacer que el poder de Llama 4 se filtre hacia tamaños más accesibles. Otra preocupación es el mal uso. OpenAI y otros argumentaron durante mucho tiempo que lanzar modelos poderosos abiertamente podría habilitar a actores maliciosos (para generar información errónea, código de malware, etc.).

Esas preocupaciones siguen siendo: un modelo de código abierto como Claude o GPT podría ser mal utilizado sin los filtros de seguridad que las empresas aplican en sus API. Por otro lado, los defensores argumentan que la apertura permite que la comunidad también identifique y solucione problemas, lo que hace que los modelos sean más robustos y transparentes con el tiempo que cualquier sistema secreto. Hay evidencia de que las comunidades de modelos abiertos toman la seguridad en serio, desarrollando sus propias barreras y compartiendo las mejores prácticas, pero es una tensión continua.

Lo que está cada vez más claro es que nos dirigimos hacia un paisaje de inteligencia artificial híbrido donde los modelos abiertos y cerrados coexisten, cada uno influyendo en el otro. Los proveedores cerrados como OpenAI, Anthropic y Google todavía mantienen una ventaja en rendimiento absoluto, por ahora. De hecho, a fines de 2024, la investigación sugirió que los modelos abiertos se quedaban aproximadamente un año atrás de los mejores modelos cerrados en capacidad. Pero esa brecha se está cerrando rápidamente.

En el mercado actual, “inteligencia artificial de código abierto” ya no solo significa proyectos de aficionados o modelos más antiguos, ahora está en el corazón de la estrategia de inteligencia artificial para gigantes tecnológicos y startups por igual. El lanzamiento de Llama 4 de Meta es un recordatorio potente del valor cambiante de la apertura. Es a la vez una postura filosófica para democratizar la tecnología y una maniobra táctica en una batalla industrial de alto riesgo. Para los desarrolladores y las empresas, abre nuevas puertas a la innovación y la autonomía, incluso mientras complica las decisiones con nuevos compromisos. Y para el ecosistema más amplio, plantea la esperanza de que los beneficios de la inteligencia artificial no quedarán bloqueados en las manos de unas pocas corporaciones, si el espíritu de código abierto puede mantener su terreno.

Alex McFarland es un periodista y escritor de inteligencia artificial que explora los últimos desarrollos en inteligencia artificial. Ha colaborado con numerosas startups y publicaciones de inteligencia artificial en todo el mundo.