Entre em contato

A batalha pela IA de código aberto na esteira da IA ​​generativa

Inteligência artificial

A batalha pela IA de código aberto na esteira da IA ​​generativa

mm
A batalha pela IA de código aberto na esteira da IA ​​generativa

A IA de código aberto está remodelando rapidamente o software ecossistema tornando modelos e ferramentas de IA acessíveis às organizações. Isto está levando a uma série de Benefícios, incluindo inovação acelerada, melhoria da qualidade e custos mais baixos.

De acordo com o 2023 OpenLogicName relatório, 80% das organizações estão usando mais software de código aberto em comparação com 77% no ano passado para acessar as inovações mais recentes, melhorar a velocidade de desenvolvimento, reduzir a dependência de fornecedores e minimizar os custos de licença.

O cenário atual da IA ​​de código aberto ainda está evoluindo. Gigantes da tecnologia como Google (Meena, Bard e PaLM), Microsoft (Turing NLG), e Amazon Web Services (Amazon Lex) têm sido mais cautelosos ao lançar suas inovações em IA. No entanto, algumas organizações, como a Meta e outras empresas de investigação baseadas em IA, estão ativamente a abrir o código-fonte dos seus modelos de IA.

Além disso, há um intenso debate sobre IA de código aberto que gira em torno de seu potencial para desafiar as grandes tecnologias. Este artigo tem como objetivo fornecer uma análise aprofundada dos benefícios potenciais da IA ​​de código aberto e destacar os desafios futuros.

Avanços pioneiros – O potencial da IA ​​de código aberto

Muitos praticantes consideram ascensão da IA ​​de código aberto como um desenvolvimento positivo porque torna a IA mais transparente, flexível, responsável, acessível e acessível. Mas gigantes da tecnologia como OpenAI e Google são muito cautelosos ao abrir o código-fonte de seus modelos devido a questões comerciais, de privacidade e de segurança. Ao abrir o código-fonte, eles podem perder sua vantagem competitiva ou teriam que fornecer informações confidenciais sobre seus dados e arquitetura de modelo, e atores mal-intencionados podem usar os modelos para fins prejudiciais.

No entanto, a joia da coroa dos modelos de IA de código aberto é a inovação mais rápida. Vários notáveis Avanços da IA tornaram-se acessíveis ao público por meio da colaboração de código aberto. Por exemplo, Meta fez um movimento inovador ao abrir o código-fonte de seu modelo LLM chamadas.

À medida que a comunidade científica ganhou acesso a chamadas, catalisou novos avanços em IA, levando ao desenvolvimento de modelos derivados como Alpaca e Vicuna. Em julho, Estabilidade AI construiu dois LLMs chamados Beluga 1 e Beluga 2 aproveitando LLaMA e LLaMA 2, respectivamente. Eles apresentaram melhores resultados em muitas tarefas linguísticas, como raciocínio, resposta a perguntas específicas de domínios e compreensão de sutilezas linguísticas, em comparação com os modelos de última geração da época. Recentemente, Meta introduziu Código LLaMA–uma ferramenta de IA de código aberto para codificação que superou modelos de última geração em tarefas de codificação – também construída com base no LLaMA 2.

Pesquisadores e profissionais também estão aprimorando as capacidades do LLaMA para competir com modelos proprietários. Por exemplo, modelos de código aberto como Giraffe de Ábaco IA e Llama-2-7B-32K-Instrução da Juntos IA agora são capazes de lidar com comprimentos de contexto de entrada longos de 32K – um recurso que estava disponível apenas em LLM proprietários como GPT-4. Além disso, iniciativas da indústria, como MosaicML's de código aberto MPT 7B e 30B modelos, estão capacitando os pesquisadores a treinar seus modelos generativos de IA do zero.

No geral, este esforço coletivo transformou o panorama da IA, promovendo a colaboração e a partilha de conhecimentos que continuam a impulsionar descobertas inovadoras.

Benefícios da IA ​​de código aberto para empresas

A IA de código aberto oferece inúmeros benefícios, tornando-a uma abordagem atraente em inteligência artificial. Abraçando a transparência e a colaboração orientada para a comunidade, a IA de código aberto tem o potencial de revolucionar a forma como desenvolvemos e implementamos soluções de IA.

Aqui estão alguns benefícios da IA ​​de código aberto:

  • Desenvolvimento rápido: Os modelos de IA de código aberto permitem que os desenvolvedores desenvolvam estruturas e arquiteturas existentes, permitindo rápido desenvolvimento e iteração de novos modelos. Com uma base sólida, os desenvolvedores podem criar aplicativos inovadores sem reinventar a roda.
  • Maior transparência: Transparência é um recurso importante do código aberto, fornecendo uma visão clara dos algoritmos e dados subjacentes. Esta visibilidade reduz o preconceito e promove a justiça, levando a um ambiente de IA mais equitativo.
  • Maior colaboração: A IA de código aberto democratizou o desenvolvimento da IA, que promove a colaboração, fomentando uma comunidade diversificada de colaboradores com conhecimentos variados.

Navegando pelos desafios – Os riscos da IA ​​de código aberto

Embora o código aberto ofereça inúmeras vantagens, é importante estar ciente dos riscos potenciais que pode acarretar. Aqui estão algumas das principais preocupações associadas à IA de código aberto:

  • Desafios regulatórios: A ascensão de modelos de IA de código aberto levou a um desenvolvimento desenfreado com riscos inerentes que exigem uma regulamentação cuidadosa. A simples acessibilidade e democratização da IA ​​levanta preocupações sobre o seu potencial uso malicioso. De acordo com um relatório recente da SiliconAngle, alguns projetos de IA de código aberto utilizam IA generativa e LLMs com segurança deficiente, colocando organizações e consumidores em risco.
  • Degradação da qualidade: Embora os modelos de IA de código aberto tragam transparência e colaboração comunitária, eles podem sofrer degradação da qualidade ao longo do tempo. Ao contrário dos modelos de código fechado mantidos por equipes dedicadas, o fardo da manutenção muitas vezes recai sobre a comunidade. Isso geralmente leva a possíveis negligências e versões de modelos desatualizados. Esta degradação pode prejudicar aplicações críticas, colocando em risco a confiança dos utilizadores e o progresso geral da IA.
  • Complexidade da regulação da IA: Os modelos de IA de código aberto introduzem um novo nível de complexidade para os reguladores de IA. Há uma série de fatores a serem considerados, como como proteger dados confidenciais, como evitar que os modelos sejam usados ​​para fins maliciosos e como garantir que os modelos sejam bem mantidos. Portanto, é bastante desafiador para os reguladores de IA garantir que os modelos de código aberto sejam usados ​​para o bem e não para o mal.

A natureza evolutiva do debate sobre IA de código aberto

“O código aberto impulsiona a inovação porque permite que muito mais desenvolvedores construam com novas tecnologias. Também melhora a segurança porque quando o software está aberto, mais pessoas podem examiná-lo para identificar e corrigir possíveis problemas”., disse Mark Zuckerberg quando ele anunciou o Lhama 2 modelo de linguagem grande em julho deste ano.

Por outro lado, grandes players como OpenAI e Google, apoiados pela Microsoft, estão mantendo seus sistemas de IA fechados. O seu objetivo é obter uma vantagem competitiva e minimizar o risco de utilização indevida da IA.

Cofundador e cientista-chefe da OpenAI, Ilya Sutskever, disse The Verge, “Esses modelos são muito potentes e estão se tornando cada vez mais potentes. Em algum momento, será muito fácil, se quisermos, causar muitos danos com esses modelos. E à medida que as capacidades aumentam, faz sentido que você não queira divulgá-las.” Portanto, existem riscos potenciais relacionados aos modelos de IA de código aberto que os humanos não podem ignorar.

Embora a IA capaz de causar destruição humana possa estar a décadas de distância, as ferramentas de IA de código aberto já foram mal utilizadas. Por exemplo, o primeiro modelo LLaMA foi lançado apenas para avançar na pesquisa de IA. Mas agentes maliciosos usaram para criar chatbots que espalham conteúdo de ódio como insultos raciais e estereótipos.

Manter um equilíbrio entre a colaboração aberta em IA e a governação responsável é crucial. Garante que os avanços da IA ​​continuem a ser benéficos para a sociedade, ao mesmo tempo que protege contra danos potenciais. A comunidade tecnológica deve colaborar para estabelecer diretrizes e mecanismos que promovam o desenvolvimento ético da IA. Mais importante ainda, devem tomar medidas para prevenir a utilização indevida, permitindo que as tecnologias de IA sejam uma força para uma mudança positiva.

Quer melhorar seu QI de IA? Navegue por Unir.aio extenso catálogo de recursos de IA perspicazes para ampliar seu conhecimento.

Haziqa é um Cientista de Dados com vasta experiência em escrever conteúdo técnico para empresas de IA e SaaS.