Inteligência artificial
Desvendando o Meta Llama 3: Um Salto Adiante nos Modelos de Linguagem Grande
No campo da inteligência artificial gerativa, o Meta continua a liderar com seu compromisso de disponibilidade de código aberto, distribuindo sua série avançada de Modelo de Linguagem Grande Meta AI (Llama) globalmente para desenvolvedores e pesquisadores. Construindo sobre suas iniciativas progressivas, o Meta introduziu recentemente a terceira iteração dessa série, Llama 3. Essa nova edição melhora significativamente o Llama 2, oferecendo numerous melhorias e estabelecendo padrões que desafiam concorrentes da indústria, como Google, Mistral e Anthropic. Este artigo explora os avanços significativos do Llama 3 e como ele se compara ao seu antecessor, Llama 2.
Série Llama do Meta: De Exclusivo para Acesso Aberto e Desempenho Aprimorado
O Meta iniciou sua série Llama em 2022 com o lançamento do Llama 1, um modelo confinado a uso não comercial e acessível apenas a instituições de pesquisa selecionadas devido às imensas demandas computacionais e natureza proprietária que caracterizavam os LLMs de ponta na época. Em 2023, com o lançamento do Llama 2, o Meta AI mudou para uma maior abertura, oferecendo o modelo gratuitamente para fins de pesquisa e comerciais. Essa mudança foi projetada para democratizar o acesso a tecnologias de inteligência artificial gerativa sofisticadas, permitindo que uma gama mais ampla de usuários, incluindo startups e equipes de pesquisa menores, inovem e desenvolvam aplicações sem os altos custos normalmente associados a modelos de grande escala. Continuando essa tendência em direção à abertura, o Meta introduziu o Llama 3, que se concentra em melhorar o desempenho de modelos menores em vários benchmarks industriais.
Apresentando o Llama 3
O Llama 3 é a segunda geração dos modelos de linguagem grande de código aberto do Meta, apresentando modelos pré-treinados e fine-tuned com 8B e 70B parâmetros. Em linha com seus antecessores, o Llama 3 utiliza uma arquitetura de transformador apenas decodificador e continua a prática de treinamento autoregressivo, treinamento auto-supervisionado para prever tokens subsequentes em sequências de texto. O Llama 3 é pré-treinado em um conjunto de dados que é sete vezes maior do que o usado para o Llama 2, apresentando mais de 15 trilhões de tokens extraídos de uma nova mistura curada de dados online disponíveis publicamente. Esse vasto conjunto de dados é processado usando dois clusters equipados com 24.000 GPUs. Para manter a alta qualidade desses dados de treinamento, uma variedade de técnicas de IA centradas em dados foram empregadas, incluindo filtros heurísticos e NSFW, dedupicação semântica e classificação de qualidade de texto. Projetado para aplicações de diálogo, o modelo Instruct do Llama 3 foi significativamente aprimorado, incorporando mais de 10 milhões de amostras de dados anotadas por humanos e aproveitando uma mistura sofisticada de métodos de treinamento, como fine-tuning supervisionado (SFT), amostragem de rejeição, otimização de política proximal (PPO) e otimização de política direta (DPO).
Llama 3 vs. Llama 2: Melhorias Chave
O Llama 3 traz várias melhorias em relação ao Llama 2, aumentando significativamente sua funcionalidade e desempenho:
- Vocabulário Expandido: O Llama 3 aumentou seu vocabulário para 128.256 tokens, em comparação com os 32.000 tokens do Llama 2. Essa melhoria suporta uma codificação de texto mais eficiente para entradas e saídas e fortalece suas capacidades multilíngues.
- Comprimento de Contexto Estendido: Os modelos do Llama 3 oferecem um comprimento de contexto de 8.000 tokens, dobrando os 4.090 tokens suportados pelo Llama 2. Esse aumento permite a manipulação de conteúdo mais extenso, abrangendo tanto prompts de usuário quanto respostas do modelo.
- Dados de Treinamento Aprimorados: O conjunto de dados de treinamento para o Llama 3 é sete vezes maior do que o do Llama 2, incluindo quatro vezes mais código. Ele contém mais de 5% de dados de alta qualidade, não ingleses, abrangendo mais de 30 idiomas, o que é crucial para o suporte a aplicações multilíngues. Esses dados passam por um controle de qualidade rigoroso usando técnicas avançadas, como filtros heurísticos e NSFW, dedupicação semântica e classificadores de texto.
- Afinamento de Instrução e Avaliação Aprimorados: Divergindo do Llama 2, o Llama 3 utiliza técnicas avançadas de fine-tuning de instruções, incluindo fine-tuning supervisionado (SFT), amostragem de rejeição, otimização de política proximal (PPO) e otimização de política direta (DPO). Para complementar esse processo, um novo conjunto de avaliação de alta qualidade foi introduzido, consistindo em 1.800 prompts que cobrem casos de uso diversificados, como conselhos, brainstorming, classificação, codificação e mais, garantindo uma avaliação abrangente e fine-tuning das capacidades do modelo.
- Segurança Avançada de IA: O Llama 3, como o Llama 2, incorpora medidas de segurança estritas, como fine-tuning de instruções e red teaming abrangente para mitigar riscos, especialmente em áreas críticas, como segurança cibernética e ameaças biológicas. Em apoio a esses esforços, o Meta também introduziu o Llama Guard 2, fine-tuned na versão 8B do Llama 3. Esse novo modelo melhora a série Llama Guard classificando entradas e respostas de LLM para identificar conteúdo potencialmente inseguro, tornando-o ideal para ambientes de produção.
Disponibilidade do Llama 3
Os modelos do Llama 3 agora estão integrados ao ecossistema Hugging Face, melhorando a acessibilidade para desenvolvedores. Os modelos também estão disponíveis por meio de plataformas de modelo como serviço, como Perplexity Labs e Fireworks.ai, e em plataformas de nuvem, como AWS SageMaker, Azure ML e Vertex AI. O Meta planeja ampliar ainda mais a disponibilidade do Llama 3, incluindo plataformas como Google Cloud, Kaggle, IBM WatsonX, NVIDIA NIM e Snowflake. Além disso, o suporte de hardware para o Llama 3 será estendido para incluir plataformas da AMD, AWS, Dell, Intel, NVIDIA e Qualcomm.
Próximas Melhorias no Llama 3
O Meta revelou que a versão atual do Llama 3 é apenas a primeira fase de sua visão mais ampla para a versão completa do Llama 3. Eles estão desenvolvendo um modelo avançado com mais de 400 bilhões de parâmetros que introduzirá novos recursos, incluindo multimodalidade e a capacidade de lidar com vários idiomas. Essa versão aprimorada também apresentará uma janela de contexto significativamente estendida e capacidades de desempenho melhoradas.
O Ponto Principal
O Llama 3 do Meta marca uma evolução significativa no cenário dos modelos de linguagem grande, impulsionando a série não apenas em direção a uma maior acessibilidade de código aberto, mas também aprimorando substancialmente suas capacidades de desempenho. Com um conjunto de dados de treinamento sete vezes maior do que o de seu antecessor e recursos como vocabulário expandido e comprimento de contexto aumentado, o Llama 3 estabelece novos padrões que desafiam até os concorrentes mais fortes da indústria.
Essa terceira iteração não apenas continua a democratizar a tecnologia de IA, tornando capacidades de alto nível disponíveis para um espectro mais amplo de desenvolvedores, mas também introduz avanços significativos em segurança e precisão de treinamento. Ao integrar esses modelos em plataformas como Hugging Face e estender a disponibilidade por meio de serviços de nuvem importantes, o Meta garante que o Llama 3 seja tão onipresente quanto poderoso.
Olhando para o futuro, o desenvolvimento contínuo do Meta promete capacidades ainda mais robustas, incluindo multimodalidade e suporte a idiomas expandido, preparando o cenário para que o Llama 3 não apenas concorra, mas potencialmente supere outros principais modelos de IA no mercado. O Llama 3 é um testemunho do compromisso do Meta em liderar a revolução de IA, fornecendo ferramentas que não apenas são mais acessíveis, mas também significativamente mais avançadas e seguras para uma base de usuários global.










