Connect with us

La Batalla por el AI de Código Abierto en la Estela del AI Generativo

Inteligencia artificial

La Batalla por el AI de Código Abierto en la Estela del AI Generativo

mm
The Battle for Open-Source AI in the Wake of Generative AI

El AI de código abierto está remodelando rápidamente el ecosistema de software ecosistema al hacer que los modelos y herramientas de AI sean accesibles para las organizaciones. Esto está llevando a una serie de beneficios, incluyendo innovación acelerada, calidad mejorada y costos más bajos.

Según el informe de OpenLogic de 2023, el 80% de las organizaciones están utilizando más software de código abierto en comparación con el 77% del año pasado para acceder a las últimas innovaciones, mejorar la velocidad de desarrollo, reducir el bloqueo de proveedores y minimizar los costos de licencia.

El panorama actual del AI de código abierto todavía está evolucionando. Los gigantes tecnológicos como Google (Meena, Bard y PaLM), Microsoft (Turing NLG) y Amazon Web Services (Amazon Lex) han sido más cautelosos al lanzar sus innovaciones de AI. Sin embargo, algunas organizaciones, como Meta y otras empresas de investigación basada en AI, están activamente abriendo el código de sus modelos de AI.

Además, existe un intenso debate sobre el AI de código abierto que gira en torno a su potencial para desafiar a la gran tecnología. Este artículo tiene como objetivo proporcionar un análisis en profundidad de los posibles beneficios del AI de código abierto y destacar los desafíos que se avecinan.

Avances Pioneros – El Potencial del AI de Código Abierto

Muchos practicantes consideran que el auge del AI de código abierto es un desarrollo positivo porque hace que el AI sea más transparente, flexible, responsable, asequible y accesible. Pero los gigantes tecnológicos como OpenAI y Google son muy cautelosos al abrir el código de sus modelos debido a preocupaciones comerciales, de privacidad y de seguridad. Al abrir el código, pueden perder su ventaja competitiva, o tendrían que dar away información sensible sobre sus datos y arquitectura de modelo, y actores maliciosos pueden utilizar los modelos para fines dañinos.

Sin embargo, la joya de la corona de abrir el código de los modelos de AI es la innovación más rápida. Varios avances notables en AI se han vuelto accesibles para el público a través de la colaboración de código abierto. Por ejemplo, Meta hizo un movimiento innovador al abrir el código de su modelo LLM LLaMA.

A medida que la comunidad de investigación obtuvo acceso a LLaMA, catalizó avances adicionales en AI, lo que llevó al desarrollo de modelos derivados como Alpaca y Vicuna. En julio, Stability AI construyó dos LLM llamados Beluga 1 y Beluga 2 aprovechando LLaMA y LLaMA 2, respectivamente. Mostraron mejores resultados en muchas tareas de lenguaje como razonamiento, respuesta a preguntas específicas de dominio y comprensión de matices del lenguaje en comparación con los modelos de vanguardia en ese momento. Recientemente, Meta ha introducido Code LLaMA – una herramienta de AI de código abierto para codificar que ha superado a los modelos de vanguardia en tareas de codificación – también construida sobre LLaMA 2.

Los investigadores y practicantes también están mejorando las capacidades de LLaMA para competir con modelos propietarios. Por ejemplo, los modelos de código abierto como Giraffe de Abacus AI y Llama-2-7B-32K-Instruct de Together AI ahora pueden manejar longitudes de contexto de entrada de 32K – una característica que solo estaba disponible en LLM propietarios como GPT-4. Además, las iniciativas de la industria, como MosaicML’s modelos de código abierto MPT 7B y 30B, están empoderando a los investigadores para entrenar sus modelos de AI generativa desde cero.

En general, este esfuerzo colectivo ha transformado el panorama de AI, fomentando la colaboración y el intercambio de conocimientos que siguen impulsando descubrimientos innovadores.

Ventajas del AI de Código Abierto para las Empresas

El AI de código abierto ofrece numerosas ventajas, lo que lo convierte en un enfoque atractivo en inteligencia artificial. Al adoptar la transparencia y la colaboración impulsada por la comunidad, el AI de código abierto tiene el potencial de revolucionar la forma en que desarrollamos y desplegamos soluciones de AI.

Aquí hay algunas ventajas del AI de código abierto:

  • Desarrollo Rápido: Los modelos de AI de código abierto permiten a los desarrolladores construir sobre marcos y arquitecturas existentes, lo que permite un desarrollo y iteración rápidos de nuevos modelos. Con una base sólida, los desarrolladores pueden crear aplicaciones innovadoras sin reinventar la rueda.
  • Mayor Transparencia: La transparencia es una característica clave del código abierto, que proporciona una visión clara de los algoritmos y datos subyacentes. Esta visibilidad reduce los sesgos y promueve la equidad, lo que conduce a un entorno de AI más equitativo.
  • Mayor Colaboración: El AI de código abierto ha democratizado el desarrollo de AI, lo que promueve la colaboración, fomentando una comunidad diversa de contribuyentes con diversas habilidades.

Navegando Desafíos – Los Riesgos de Abrir el Código de AI

Si bien el código abierto ofrece numerosas ventajas, es importante ser consciente de los riesgos potenciales que puede conllevar. Aquí hay algunas de las preocupaciones clave asociadas con el AI de código abierto:

  • Desafíos Regulatorios: El auge de los modelos de AI de código abierto ha llevado a un desarrollo desenfrenado con riesgos inherentes que exigen una regulación cuidadosa. La accesibilidad y democratización de AI plantean preocupaciones sobre su posible uso malicioso. Según un informe reciente de SiliconAngle, algunos proyectos de AI de código abierto utilizan AI generativa y LLM con mala seguridad, lo que pone en riesgo a las organizaciones y consumidores.
  • Degradación de la Calidad: Mientras que los modelos de AI de código abierto traen transparencia y colaboración comunitaria, pueden sufrir de degradación de la calidad con el tiempo. A diferencia de los modelos de código cerrado mantenidos por equipos dedicados, la carga de mantenimiento a menudo recae en la comunidad. Esto a menudo conduce a un posible descuido y versiones de modelo obsoletas. Esta degradación podría obstaculizar aplicaciones críticas, poniendo en peligro la confianza del usuario y el progreso general de AI.
  • Complejidad de la Regulación de AI: Abrir el código de los modelos de AI introduce un nuevo nivel de complejidad para los reguladores de AI. Hay una serie de factores que considerar, como cómo proteger los datos sensibles, cómo prevenir que los modelos se utilicen para fines maliciosos y cómo garantizar que los modelos estén bien mantenidos. Por lo tanto, es bastante desafiante para los reguladores de AI garantizar que los modelos de código abierto se utilicen para el bien y no para el daño.

La Naturaleza Evolutiva del Debate sobre el AI de Código Abierto

“El código abierto impulsa la innovación porque permite que muchos más desarrolladores construyan con nueva tecnología. También mejora la seguridad y la seguridad porque cuando el software es de código abierto, más personas pueden examinarlo para identificar y solucionar posibles problemas”, dijo Mark Zuckerberg cuando anunció el LLaMA 2 modelo de lenguaje grande en julio de este año.

Por otro lado, jugadores importantes como OpenAI respaldado por Microsoft y Google están manteniendo sus sistemas de AI cerrados. Están apuntando a obtener una ventaja competitiva y minimizar el riesgo de mal uso de AI.

El cofundador y científico jefe de OpenAI, Ilya Sutskever, le dijo a The Verge, “Estos modelos son muy potentes y se están volviendo cada vez más potentes. En algún momento, será bastante fácil, si uno lo desea, causar un gran daño con esos modelos. Y a medida que las capacidades aumentan, tiene sentido que no quieras divulgarlos.” Así que hay riesgos potenciales relacionados con los modelos de AI de código abierto que los humanos no pueden ignorar.

Mientras que las AI capaces de causar destrucción humana pueden estar décadas alejadas, las herramientas de AI de código abierto ya han sido mal utilizadas. Por ejemplo, el primer modelo LLaMA se lanzó solo para avanzar en la investigación de AI. Pero los agentes maliciosos lo utilizaron para crear chatbots que difundían contenido odioso como insultos raciales y estereotipos.

Mantener un equilibrio entre la colaboración de AI abierta y la gobernanza responsable es crucial. Garantiza que los avances de AI sigan siendo beneficiosos para la sociedad mientras se protege contra el daño potencial. La comunidad tecnológica debe colaborar para establecer pautas y mecanismos que promuevan el desarrollo ético de AI. Más importante aún, deben tomar medidas para prevenir el mal uso, permitiendo que las tecnologías de AI sean una fuerza para el cambio positivo.

¿Quieres mejorar tu IQ de AI? Navega a través del catálogo extenso de Unite.ai de recursos de AI informativos para ampliar tus conocimientos.

Haziqa es una científica de datos con amplia experiencia en la escritura de contenido técnico para empresas de inteligencia artificial y SaaS.