Connect with us

Poder em Dimensões Reduzidas: Apresentando o Phi-3 da Microsoft, o Modelo de Linguagem que Cabem no Seu Telefone

Inteligência artificial

Poder em Dimensões Reduzidas: Apresentando o Phi-3 da Microsoft, o Modelo de Linguagem que Cabem no Seu Telefone

mm

No campo em rápida evolução da inteligência artificial, enquanto a tendência frequentemente se inclinou para modelos maiores e mais complexos, a Microsoft está adotando uma abordagem diferente com seu Phi-3 Mini. Este modelo de linguagem pequeno (SLM), agora em sua terceira geração, embala as robustas capacidades de modelos maiores em uma estrutura que se encaixa dentro das rigorosas restrições de recursos de smartphones. Com 3,8 bilhões de parâmetros, o Phi-3 Mini iguala o desempenho de modelos de linguagem grandes (LLMs) em várias tarefas, incluindo processamento de linguagem, raciocínio, codificação e matemática, e é projetado para operação eficiente em dispositivos móveis por meio da quantização.

Desafios dos Modelos de Linguagem Grandes

O desenvolvimento dos SLMs Phi da Microsoft é uma resposta aos significativos desafios impostos pelos LLMs, que exigem mais poder computacional do que o normalmente disponível em dispositivos de consumo. Essa alta demanda complica seu uso em computadores padrão e dispositivos móveis, levanta preocupações ambientais devido ao seu consumo de energia durante o treinamento e operação, e arrisca perpetuar vieses com seus grandes e complexos conjuntos de dados de treinamento. Esses fatores também podem prejudicar a responsividade dos modelos em aplicações em tempo real e tornar as atualizações mais desafiadoras.

Phi-3 Mini: Otimizando a IA em Dispositivos Pessoais para Privacidade e Eficiência Aumentadas

O Phi-3 Mini é estrategicamente projetado para oferecer uma alternativa rentável e eficiente para integrar IA avançada diretamente em dispositivos pessoais, como telefones e laptops. Este design facilita respostas mais rápidas e imediatas, melhorando a interação do usuário com a tecnologia em cenários do dia a dia.

Phi-3 Mini permite que funcionalidades de IA sofisticadas sejam processadas diretamente em dispositivos móveis, reduzindo a dependência de serviços de nuvem e melhorando o manejo de dados em tempo real. Essa capacidade é fundamental para aplicações que exigem processamento de dados imediato, como saúde móvel, tradução de linguagem em tempo real e educação personalizada, facilitando avanços nesses campos. A eficiência de custo do modelo não apenas reduz os custos operacionais, mas também expande o potencial para integração de IA em várias indústrias, incluindo mercados emergentes como tecnologia de wearable e automação residencial. Phi-3 Mini permite o processamento de dados diretamente em dispositivos locais, o que aumenta a privacidade do usuário. Isso pode ser vital para gerenciar informações sensíveis em campos como saúde pessoal e serviços financeiros. Além disso, os baixos requisitos de energia do modelo contribuem para operações de IA ambientalmente sustentáveis, alinhando-se com esforços globais de sustentabilidade.

Filosofia de Design e Evolução do Phi

A filosofia de design do Phi é baseada no conceito de aprendizado de currículo, que busca inspiração na abordagem educacional onde as crianças aprendem por meio de exemplos progressivamente mais desafiadores. A principal ideia é começar o treinamento da IA com exemplos mais fáceis e gradualmente aumentar a complexidade dos dados de treinamento à medida que o processo de aprendizado avança. A Microsoft implementou essa estratégia educacional construindo um conjunto de dados a partir de livros didáticos, como detalhado em seu estudo “Textbooks Are All You Need.” A série Phi foi lançada em junho de 2023, começando com o Phi-1, um modelo compacto com 1,3 bilhão de parâmetros. Esse modelo rapidamente demonstrou sua eficácia, particularmente em tarefas de codificação Python, onde superou modelos maiores e mais complexos. Com base nesse sucesso, a Microsoft posteriormente desenvolveu o Phi-1.5, que manteve o mesmo número de parâmetros, mas ampliou suas capacidades em áreas como raciocínio de senso comum e compreensão de linguagem. A série brilhou com o lançamento do Phi-2 em dezembro de 2023. Com 2,7 bilhões de parâmetros, o Phi-2 demonstrou habilidades impressionantes em raciocínio e compreensão de linguagem, posicionando-se como um forte concorrente contra modelos significativamente maiores.

Phi-3 vs. Outros Modelos de Linguagem Pequenos

Ampliando sobre seus predecessores, o Phi-3 Mini estende os avanços do Phi-2, superando outros SLMs, como o Gemma do Google, o Mistral da Mistral, o Llama3-Instruct da Meta e o GPT 3.5, em uma variedade de aplicações industriais. Essas aplicações incluem compreensão e inferência de linguagem, conhecimento geral, raciocínio de senso comum, problemas de matemática de nível escolar e resposta a perguntas médicas, demonstrando desempenho superior em comparação com esses modelos. O Phi-3 Mini também passou por testes offline em um iPhone 14 para várias tarefas, incluindo criação de conteúdo e sugestões de atividades personalizadas para locais específicos. Para esse propósito, o Phi-3 Mini foi condensado para 1,8GB usando um processo chamado quantização, que otimiza o modelo para dispositivos com recursos limitados, convertendo os dados numéricos do modelo de números de ponto flutuante de 32 bits para formatos mais compactos, como inteiros de 4 bits. Isso não apenas reduz a pegada de memória do modelo, mas também melhora a velocidade de processamento e a eficiência de energia, o que é vital para dispositivos móveis. Desenvolvedores normalmente utilizam frameworks como TensorFlow Lite ou PyTorch Mobile, incorporando ferramentas de quantização integradas para automatizar e refinar esse processo.

Comparação de Recursos: Phi-3 Mini vs. Phi-2 Mini

Abaixo, comparamos alguns dos recursos do Phi-3 com seu antecessor Phi-2.

  • Arquitetura do Modelo: O Phi-2 opera em uma arquitetura baseada em transformadores projetada para prever a próxima palavra. O Phi-3 Mini também emprega uma arquitetura de decodificador de transformadores, mas se alinha mais de perto com a estrutura do modelo Llama-2, usando o mesmo tokenizador com um tamanho de vocabulário de 320.641. Essa compatibilidade garante que ferramentas desenvolvidas para o Llama-2 possam ser facilmente adaptadas para uso com o Phi-3 Mini.
  • Comprimento de Contexto: O Phi-3 Mini suporta um comprimento de contexto de 8.000 tokens, que é consideravelmente maior do que os 2.048 tokens do Phi-2. Esse aumento permite que o Phi-3 Mini gerencie interações mais detalhadas e processe trechos de texto mais longos.
  • Execução Local em Dispositivos Móveis: O Phi-3 Mini pode ser comprimido para 4 bits, ocupando cerca de 1,8GB de memória, semelhante ao Phi-2. Ele foi testado executando offline em um iPhone 14 com um chip A16 Bionic, onde alcançou uma velocidade de processamento de mais de 12 tokens por segundo, igualando o desempenho do Phi-2 sob condições semelhantes.
  • Tamanho do Modelo: Com 3,8 bilhões de parâmetros, o Phi-3 Mini tem uma escala maior do que o Phi-2, que tem 2,7 bilhões de parâmetros. Isso reflete suas capacidades aumentadas.
  • Dados de Treinamento: Ao contrário do Phi-2, que foi treinado em 1,4 trilhão de tokens, o Phi-3 Mini foi treinado em um conjunto muito maior de 3,3 trilhões de tokens, permitindo que ele alcance uma melhor compreensão de padrões de linguagem complexos.

Abordando as Limitações do Phi-3 Mini

Embora o Phi-3 Mini demonstre avanços significativos no reino dos modelos de linguagem pequenos, ele não está sem limitações. Uma restrição primária do Phi-3 Mini, dado seu tamanho menor em comparação com modelos de linguagem maciços, é sua capacidade limitada de armazenar conhecimento factual extensivo. Isso pode impactar sua capacidade de lidar independentemente com consultas que requerem profundidade de dados factuais específicos ou conhecimento especializado detalhado. No entanto, isso pode ser mitigado integrando o Phi-3 Mini com um mecanismo de busca. Dessa forma, o modelo pode acessar uma gama mais ampla de informações em tempo real, compensando efetivamente suas limitações inerentes de conhecimento. Essa integração permite que o Phi-3 Mini funcione como um conversador altamente capaz que, apesar de ter um conhecimento abrangente de linguagem e contexto, pode ocasionalmente precisar “consultar” informações para fornecer respostas precisas e atualizadas.

Disponibilidade

O Phi-3 agora está disponível em várias plataformas, incluindo Microsoft Azure AI Studio, Hugging Face e Ollama. No Azure AI, o modelo incorpora um fluxo de trabalho de implantação-avaliação-ajuste, e no Ollama, ele pode ser executado localmente em laptops. O modelo foi personalizado para ONNX Runtime e suporta Windows DirectML, garantindo que ele funcione bem em vários tipos de hardware, como GPUs, CPUs e dispositivos móveis. Além disso, o Phi-3 é oferecido como um microserviço via NVIDIA NIM, equipado com uma API padrão para implantação fácil em diferentes ambientes e otimizado especificamente para GPUs NVIDIA. A Microsoft planeja expandir ainda mais a série Phi-3 no futuro próximo, adicionando os modelos Phi-3-pequeno (7B) e Phi-3-médio (14B), fornecendo aos usuários mais opções para equilibrar qualidade e custo.

O Resumo

O Phi-3 Mini da Microsoft está dando passos significativos no campo da inteligência artificial, adaptando o poder dos modelos de linguagem grandes para uso móvel. Esse modelo melhora a interação do usuário com os dispositivos por meio de processamento em tempo real mais rápido e recursos de privacidade aprimorados. Ele minimiza a necessidade de serviços baseados em nuvem, reduzindo os custos operacionais e ampliando o escopo para aplicações de IA em áreas como saúde e automação residencial. Com foco em reduzir vieses por meio do aprendizado de currículo e manter um desempenho competitivo, o Phi-3 Mini está se tornando uma ferramenta fundamental para IA móvel eficiente e sustentável, transformando sutilmente como interagimos com a tecnologia diariamente.

O Dr. Tehseen Zia é um Professor Associado com Estabilidade no COMSATS University Islamabad, com um PhD em IA pela Vienna University of Technology, Áustria. Especializando-se em Inteligência Artificial, Aprendizado de Máquina, Ciência de Dados e Visão Computacional, ele fez contribuições significativas com publicações em jornais científicos renomados. O Dr. Tehseen também liderou vários projetos industriais como Investigador Principal e atuou como Consultor de IA.