Connect with us

A Batalha pela Inteligência Artificial de Código Aberto na Esteira da Inteligência Artificial Gerativa

Inteligência artificial

A Batalha pela Inteligência Artificial de Código Aberto na Esteira da Inteligência Artificial Gerativa

mm
The Battle for Open-Source AI in the Wake of Generative AI

A inteligência artificial de código aberto está rapidamente redesenhando o ecossistema de software ecosistema tornando modelos e ferramentas de IA acessíveis às organizações. Isso está levando a uma série de benefícios, incluindo inovação acelerada, qualidade melhorada e custos reduzidos.

De acordo com o relatório OpenLogic de 2023, 80% das organizações estão usando mais software de código aberto em comparação com 77% no ano passado para acessar as últimas inovações, melhorar a velocidade de desenvolvimento, reduzir a dependência de fornecedores e minimizar os custos de licença.

O cenário atual de inteligência artificial de código aberto ainda está evoluindo. Gigantes da tecnologia, como Google (Meena, Bard e PaLM), Microsoft (Turing NLG) e Amazon Web Services (Amazon Lex), têm sido mais cautelosos ao liberar suas inovações em IA. No entanto, algumas organizações, como Meta e outras empresas de pesquisa baseada em IA, estão ativamente abrindo seus modelos de IA.

Além disso, há um intenso debate sobre inteligência artificial de código aberto que gira em torno de seu potencial para desafiar a grande tecnologia. Este artigo visa fornecer uma análise aprofundada dos benefícios potenciais da inteligência artificial de código aberto e destacar os desafios à frente.

Avanços Pioneiros – O Potencial da Inteligência Artificial de Código Aberto

Muitos profissionais consideram o surgimento da inteligência artificial de código aberto um desenvolvimento positivo porque torna a IA mais transparente, flexível, responsável, acessível e a preço acessível. Mas gigantes da tecnologia como OpenAI e Google são muito cautelosos ao abrir seus modelos devido a preocupações comerciais, de privacidade e de segurança. Ao abrir seus modelos, eles podem perder sua vantagem competitiva, ou teriam que divulgar informações sensíveis sobre seus dados e arquitetura de modelo, e atores mal-intencionados podem usar os modelos para fins prejudiciais.

No entanto, a joia da coroa da abertura de modelos de IA é a inovação mais rápida. Vários avanços notáveis em IA tornaram-se acessíveis ao público por meio da colaboração de código aberto. Por exemplo, a Meta fez uma mudança revolucionária ao abrir seu modelo LLM LLaMA.

À medida que a comunidade de pesquisa teve acesso ao LLaMA, isso catalisou avanços adicionais em IA, levando ao desenvolvimento de modelos derivados como Alpaca e Vicuna. Em julho, a Stability AI construiu dois LLMs nomeados Beluga 1 e Beluga 2 aproveitando o LLaMA e o LLaMA 2, respectivamente. Eles mostraram melhores resultados em muitas tarefas de linguagem, como raciocínio, resposta a perguntas específicas de domínio e compreensão de nuances de linguagem, em comparação com os modelos de ponta na época. Recentemente, a Meta introduziu Code LLaMA – uma ferramenta de IA de código aberto para codificação que superou os modelos de ponta em tarefas de codificação – também construída em cima do LLaMA 2.

Pesquisadores e profissionais também estão aprimorando as capacidades do LLaMA para competir com modelos proprietários. Por exemplo, modelos de código aberto como Giraffe da Abacus AI e Llama-2-7B-32K-Instruct da Together AI agora são capazes de lidar com comprimentos de contexto de entrada de 32K – uma característica que estava disponível apenas em LLM proprietários como o GPT-4. Além disso, iniciativas da indústria, como os modelos MosaicML’s de código aberto MPT 7B e 30B, estão capacitando pesquisadores a treinar seus modelos de IA gerativa do zero.

No geral, esse esforço coletivo transformou o cenário de IA, fomentando colaboração e compartilhamento de conhecimento que continuam a impulsionar descobertas revolucionárias.

Benefícios da Inteligência Artificial de Código Aberto para Empresas

A inteligência artificial de código aberto oferece numerosos benefícios, tornando-a uma abordagem atraente em inteligência artificial. Ao abraçar a transparência e a colaboração comunitária, a inteligência artificial de código aberto tem o potencial de revolucionar a forma como desenvolvemos e implantamos soluções de IA.

Aqui estão alguns benefícios da inteligência artificial de código aberto:

  • Desenvolvimento Rápido: Os modelos de IA de código aberto permitem que os desenvolvedores construam sobre estruturas e arquiteturas existentes, permitindo um desenvolvimento e iteração rápidos de novos modelos. Com uma base sólida, os desenvolvedores podem criar aplicações novas sem reinventar a roda.
  • Aumento da Transparência: Transparência é uma característica fundamental do código aberto, fornecendo uma visão clara dos algoritmos e dados subjacentes. Essa visibilidade reduz vieses e promove a equidade, levando a um ambiente de IA mais justo.
  • Aumento da Colaboração: A inteligência artificial de código aberto democratizou o desenvolvimento de IA, promovendo a colaboração, fomentando uma comunidade diversa de contribuintes com especialidades variadas.

Navegando Desafios – Os Riscos de Abrir a Inteligência Artificial

Embora o código aberto ofereça numerosas vantagens, é importante estar ciente dos riscos potenciais que ele pode envolver. Aqui estão alguns dos principais problemas associados à inteligência artificial de código aberto:

  • Desafios Regulatórios: O surgimento de modelos de IA de código aberto levou a um desenvolvimento desenfreado com riscos inerentes que exigem regulamentação cuidadosa. A acessibilidade e democratização da IA levantam preocupações sobre seu uso potencialmente prejudicial. De acordo com um relatório recente da SiliconAngle, alguns projetos de IA de código aberto usam IA gerativa e LLMs com segurança ruim, colocando organizações e consumidores em risco.
  • Degradção da Qualidade: Enquanto os modelos de IA de código aberto trazem transparência e colaboração comunitária, eles podem sofrer de degradação da qualidade com o tempo. Ao contrário dos modelos de código fechado mantidos por equipes dedicadas, a responsabilidade de manutenção geralmente recai sobre a comunidade. Isso frequentemente leva a negligência potencial e versões de modelo desatualizadas. Essa degradação pode prejudicar aplicações críticas, colocando em risco a confiança do usuário e o progresso geral da IA.
  • Complexidade da Regulação de IA: A abertura de modelos de IA introduz um novo nível de complexidade para os reguladores de IA. Há uma série de fatores a considerar, como proteger dados sensíveis, prevenir que os modelos sejam usados para fins prejudiciais e garantir que os modelos sejam bem mantidos. Portanto, é bastante desafiador para os reguladores de IA garantir que os modelos de código aberto sejam usados para o bem e não para o mal.

A Natureza Evolutiva do Debate sobre Inteligência Artificial de Código Aberto

“O código aberto impulsiona a inovação porque permite que muitos mais desenvolvedores construam com novas tecnologias. Ele também melhora a segurança e a segurança porque, quando o software é de código aberto, mais pessoas podem examiná-lo para identificar e corrigir problemas potenciais”, disse Mark Zuckerberg quando anunciou o LLaMA 2 grande modelo de linguagem em julho deste ano.

Por outro lado, grandes jogadores como a OpenAI, apoiada pela Microsoft, e o Google estão mantendo seus sistemas de IA fechados. Eles estão visando obter uma vantagem competitiva e minimizar o risco de mau uso da IA.

O co-fundador e cientista-chefe da OpenAI, Ilya Sutskever, disse ao The Verge, “Esses modelos são muito potentes e estão se tornando cada vez mais potentes. Em algum momento, será bastante fácil, se alguém quiser, causar um grande dano com esses modelos. E à medida que as capacidades aumentam, faz sentido que você não queira divulgá-las.” Portanto, existem riscos potenciais relacionados a modelos de IA de código aberto que os humanos não podem ignorar.

Embora as IAs capazes de causar destruição humana possam estar décadas à frente, as ferramentas de IA de código aberto já foram mal utilizadas. Por exemplo, o primeiro modelo LLaMA foi liberado apenas para avançar na pesquisa de IA. No entanto, agentes mal-intencionados usaram-no para criar chatbots que espalhavam conteúdo odioso como insultos raciais e estereótipos.

Manter um equilíbrio entre a colaboração de IA aberta e a governança responsável é crucial. Isso garante que os avanços em IA permaneçam benéficos para a sociedade, protegendo contra danos potenciais. A comunidade tecnológica deve colaborar para estabelecer diretrizes e mecanismos que promovam o desenvolvimento ético de IA. Mais importante ainda, eles devem tomar medidas para prevenir o mau uso, permitindo que as tecnologias de IA sejam uma força para a mudança positiva.

Quer melhorar seu QI de IA? Navegue pelo catálogo extensivo de recursos de IA esclarecedores do Unite.ai para ampliar seu conhecimento.

Haziqa é uma Cientista de Dados com ampla experiência em escrever conteúdo técnico para empresas de IA e SaaS.