Contáctenos

La batalla por la IA de código abierto tras la IA generativa

Inteligencia Artificial

La batalla por la IA de código abierto tras la IA generativa

mm
La batalla por la IA de código abierto tras la IA generativa

La IA de código abierto está remodelando rápidamente el software ecosistema haciendo que los modelos y herramientas de IA sean accesibles para las organizaciones. Esto está dando lugar a una serie de beneficios, incluida la innovación acelerada, la mejora de la calidad y la reducción de costos.

De acuerdo con el lógica abierta Según el informe, el 80 % de las organizaciones están utilizando más software de código abierto en comparación con el 77 % del año pasado para acceder a las últimas innovaciones, mejorar la velocidad de desarrollo, reducir la dependencia de proveedores y minimizar los costos de licencia.

El panorama actual de la IA de código abierto todavía está evolucionando. Gigantes tecnológicos como Google (Meena, Bard y PaLM), Microsoft (Turing NLG), y Amazon Web Services (Amazon Lex) han sido más cautelosos al lanzar sus innovaciones en inteligencia artificial. Sin embargo, algunas organizaciones, como Meta y otras empresas de investigación basadas en IA, están abriendo activamente sus modelos de IA.

Además, existe un intenso debate sobre IA de código abierto que gira en torno a su potencial para desafiar a las grandes tecnologías. Este artículo tiene como objetivo proporcionar un análisis en profundidad de los beneficios potenciales de la IA de código abierto y resaltar los desafíos que se avecinan.

Avances pioneros: el potencial de la IA de código abierto

Muchos practicantes consideran que El auge de la IA de código abierto es un avance positivo porque hace que la IA sea más transparente, flexible, responsable, asequible y accesible. Pero los gigantes tecnológicos como OpenAI y Google son muy cautelosos al abrir sus modelos debido a preocupaciones comerciales, de privacidad y de seguridad. Al abrir el código fuente, podrían perder su ventaja competitiva o tendrían que revelar información confidencial sobre sus datos y la arquitectura del modelo, y los actores malintencionados podrían utilizar los modelos con fines dañinos.

Sin embargo, la joya de la corona de los modelos de IA de código abierto es una innovación más rápida. Varios notables avances de IA se han vuelto accesibles al público a través de la colaboración de código abierto. Por ejemplo, Meta hizo un movimiento innovador al abrir su modelo LLM. Llama.

A medida que la comunidad de investigadores obtuvo acceso a Llama, catalizó nuevos avances en IA, lo que llevó al desarrollo de modelos derivados como Alpaca y Vicuña. En julio, la estabilidad AI construyó dos LLM llamados Beluga 1 y Beluga 2 aprovechando LLaMA y LLaMA 2, respectivamente. Mostraron mejores resultados en muchas tareas lingüísticas, como razonamiento, respuesta a preguntas de dominios específicos y comprensión de las sutilezas del lenguaje, en comparación con los modelos más avanzados en ese momento. Recientemente, Meta ha introducido Código LLaMA–una herramienta de inteligencia artificial de código abierto para codificación que ha superado a los modelos de última generación en tareas de codificación – también construida sobre LLaMA 2.

Los investigadores y profesionales también están mejorando las capacidades de LLaMA para competir con modelos propietarios. Por ejemplo, modelos de código abierto como Giraffe de Ábaco IA y Llama-2-7B-32K-Instrucción desde Juntos IA ahora son capaces de manejar longitudes de contexto de entrada de 32K, una característica que solo estaba disponible en LLM patentados como GPT-4. Además, iniciativas de la industria, como MosaicML De código abierto MPT 7B y 30B modelos, están permitiendo a los investigadores entrenar sus modelos de IA generativa desde cero.

En general, este esfuerzo colectivo ha transformado el panorama de la IA, fomentando la colaboración y el intercambio de conocimientos que continúan impulsando descubrimientos innovadores.

Beneficios de la IA de código abierto para las empresas

La IA de código abierto ofrece numerosos beneficios, lo que la convierte en un enfoque convincente en inteligencia artificial. Al adoptar la transparencia y la colaboración impulsada por la comunidad, la IA de código abierto tiene el potencial de revolucionar la forma en que desarrollamos e implementamos soluciones de IA.

Estos son algunos de los beneficios de la IA de código abierto:

  • Desarrollo rápido: Los modelos de IA de código abierto permiten a los desarrolladores aprovechar marcos y arquitecturas existentes, lo que permite un rápido desarrollo e iteración de nuevos modelos. Con una base sólida, los desarrolladores pueden crear aplicaciones novedosas sin tener que reinventar la rueda.
  • Mayor transparencia: Transparencia es una característica clave del código abierto, que proporciona una visión clara de los algoritmos y datos subyacentes. Esta visibilidad reduce los prejuicios y promueve la equidad, lo que conduce a un entorno de IA más equitativo.
  • Mayor colaboración: La IA de código abierto democratizó el desarrollo de la IA, lo que promueve la colaboración y fomenta una comunidad diversa de contribuyentes con diferentes conocimientos.

Superando los desafíos: los riesgos de la IA de código abierto

Si bien el código abierto ofrece numerosas ventajas, es importante ser consciente de los riesgos potenciales que puede implicar. Estas son algunas de las preocupaciones clave asociadas con la IA de código abierto:

  • Desafíos regulatorios: El auge de los modelos de IA de código abierto ha llevado a un desarrollo desenfrenado con riesgos inherentes que exigen una regulación cuidadosa. La absoluta accesibilidad y democratización de la IA genera preocupación sobre su potencial uso malicioso. Según un informe reciente de SiliconAngle, algunos proyectos de IA de código abierto utilizan IA generativa y LLM con poca seguridad, lo que pone en riesgo a las organizaciones y a los consumidores.
  • Degradación de la calidad: Si bien los modelos de IA de código abierto aportan transparencia y colaboración comunitaria, pueden sufrir una degradación de la calidad con el tiempo. A diferencia de los modelos de código cerrado mantenidos por equipos dedicados, la carga del mantenimiento suele recaer en la comunidad. Esto a menudo conduce a posibles abandonos y versiones de modelos obsoletos. Esta degradación podría obstaculizar las aplicaciones críticas, poniendo en peligro la confianza de los usuarios y el progreso general de la IA.
  • Complejidad de la regulación de la IA: Los modelos de IA de código abierto introducen un nuevo nivel de complejidad para los reguladores de IA. Hay una serie de factores a considerar, como cómo proteger los datos confidenciales, cómo evitar que los modelos se utilicen con fines maliciosos y cómo garantizar que los modelos estén bien mantenidos. Por lo tanto, resulta bastante difícil para los reguladores de la IA garantizar que los modelos de código abierto se utilicen para bien y no para mal.

La naturaleza cambiante del debate sobre la IA de código abierto

“El código abierto impulsa la innovación porque permite a muchos más desarrolladores construir con nueva tecnología. También mejora la seguridad porque cuando el software está abierto, más personas pueden examinarlo para identificar y solucionar posibles problemas”., dijo mark Zuckerberg cuando anunció el Llama 2 modelo de lenguaje grande en julio de este año.

Por otro lado, los principales actores como OpenAI, respaldado por Microsoft, y Google, mantienen cerrados sus sistemas de inteligencia artificial. Su objetivo es obtener una ventaja competitiva y minimizar el riesgo de uso indebido de la IA.

Cofundador y científico jefe de OpenAI, Ilya Sutskever, dijo a The Verge, “Estos modelos son muy potentes y cada vez son más potentes. En algún momento, será bastante fácil, si se quisiera, causar mucho daño con esos modelos. Y a medida que las capacidades aumentan, tiene sentido que no quieras revelarlas”. Por tanto, existen riesgos potenciales relacionados con los modelos de IA de código abierto que los humanos no pueden ignorar.

Si bien pueden faltar décadas para que exista una IA capaz de causar destrucción humana, las herramientas de IA de código abierto ya han sido mal utilizadas. Por ejemplo, el primer modelo LLaMA sólo se lanzó para avanzar en la investigación de la IA. Pero agentes maliciosos lo usaron. para crear chatbots que difundan contenido de odio como insultos y estereotipos raciales.

Mantener un equilibrio entre la colaboración abierta en IA y la gobernanza responsable es crucial. Garantiza que los avances de la IA sigan siendo beneficiosos para la sociedad y al mismo tiempo protegen contra posibles daños. La comunidad tecnológica debe colaborar para establecer pautas y mecanismos que promuevan el desarrollo ético de la IA. Más importante aún, deben tomar medidas para evitar el uso indebido, permitiendo que las tecnologías de IA sean una fuerza para el cambio positivo.

¿Quiere mejorar su coeficiente intelectual de IA? Navegar a través Unirse.aiEl extenso catálogo de recursos interesantes de IA para ampliar su conocimiento.

Haziqa es un científico de datos con amplia experiencia en la redacción de contenido técnico para empresas de IA y SaaS.