Intelligence artificielle
Tout ce que vous devez savoir sur Llama 3 | Le modèle open source le plus puissant à ce jour | Concepts d'utilisation
Meta a récemment publié Llama 3, la prochaine génération de son grand modèle de langage (LLM) open source de pointe. S'appuyant sur les bases établies par son prédécesseur, Llama 3 vise à améliorer les capacités qui ont positionné Llama 2 comme un concurrent open source important de ChatGPT, comme indiqué dans l'examen complet de l'article. Llama 2 : une plongée approfondie dans le challenger open source de ChatGPT.
Dans cet article, nous discuterons des concepts de base derrière Llama 3, explorerons son architecture innovante et son processus de formation, et fournirons des conseils pratiques sur la manière d'accéder, d'utiliser et de déployer ce modèle révolutionnaire de manière responsable. Que vous soyez chercheur, développeur ou passionné d'IA, cet article vous fournira les connaissances et les ressources nécessaires pour exploiter la puissance de Llama 3 pour vos projets et applications.
L'évolution du lama : du lama 2 au lama 3
Le PDG de Meta, Mark Zuckerberg, annoncé les débuts de Llama 3, le dernier modèle d'IA développé par Meta AI. Ce modèle de pointe, désormais open source, devrait améliorer les différents produits de Meta, notamment Messenger et Instagram. Zuckerberg a souligné que Llama 3 positionne Meta AI comme la plus avancée assistant IA disponible gratuitement.
Avant de parler des spécificités de Llama 3, revenons brièvement sur son prédécesseur, Llama 2. Introduit en 2022, Llama 2 a constitué une étape importante dans le paysage LLM open source, offrant un modèle puissant et efficace pouvant être exécuté sur du matériel grand public. .
Cependant, même si Llama 2 était une réussite notable, il avait ses limites. Les utilisateurs ont signalé des problèmes de faux refus (le modèle refusant de répondre à des invites bénignes), une utilité limitée et des possibilités d'amélioration dans des domaines tels que le raisonnement et la génération de code.
Entrez dans Llama 3 : la réponse de Meta à ces défis et les commentaires de la communauté. Avec Llama 3, Meta a décidé de créer les meilleurs modèles open source comparables aux meilleurs modèles propriétaires disponibles aujourd'hui, tout en donnant la priorité à des pratiques de développement et de déploiement responsables.
Lama 3 : Architecture et formation
L'une des innovations clés de Llama 3 est son tokenizer, qui propose un vocabulaire considérablement élargi de Jetons 128,256 (contre 32,000 2 dans Llama XNUMX). Ce vocabulaire plus large permet un codage plus efficace du texte, tant pour l'entrée que pour la sortie, conduisant potentiellement à un multilinguisme plus fort et à des améliorations globales des performances.
Llama 3 intègre également Attention aux requêtes groupées (GQA), une technique de représentation efficace qui améliore l'évolutivité et aide le modèle à gérer plus efficacement des contextes plus longs. Le 8B La version de Llama 3 utilise GQA, tandis que les deux 8B ainsi que 70M les modèles peuvent traiter des séquences jusqu'à Jetons 8,192.
Données de formation et mise à l'échelle
Les données d'entraînement utilisées pour Llama 3 sont un facteur crucial dans l'amélioration de ses performances. Meta a organisé un ensemble de données massif de plus de 15 billions jetons provenant de sources en ligne accessibles au public, sept fois plus volumineux que l'ensemble de données utilisé pour Llama 2. Cet ensemble de données comprend également une partie importante (plus de 5 %) de données non anglaises de haute qualité, couvrant plus de 30 langues , en préparation de futures applications multilingues.
Pour garantir la qualité des données, Meta a utilisé des techniques de filtrage avancées, notamment des filtres heuristiques, des filtres NSFW, une déduplication sémantique et des classificateurs de texte formés sur Llama 2 pour prédire la qualité des données. L'équipe a également mené des expériences approfondies pour déterminer la combinaison optimale de sources de données pour le pré-entraînement, garantissant ainsi que Llama 3 fonctionne bien dans un large éventail de cas d'utilisation, notamment les anecdotes, les STEM, le codage et les connaissances historiques.
L'intensification de la pré-formation était un autre aspect essentiel du développement de Llama 3. Meta a développé des lois de mise à l'échelle qui leur ont permis de prédire les performances de ses plus grands modèles sur des tâches clés, telles que la génération de code, avant de les entraîner. Cela a éclairé les décisions sur la combinaison de données et l'allocation de calcul, conduisant finalement à une formation plus efficace et efficiente.
Les plus grands modèles de Llama 3 ont été formés sur deux clusters de 24,000 2 GPU personnalisés, en tirant parti d'une combinaison de techniques de parallélisation des données, de parallélisation de modèles et de parallélisation de pipelines. La pile de formation avancée de Meta a automatisé la détection, la gestion et la maintenance des erreurs, maximisant la disponibilité du GPU et augmentant l'efficacité de la formation d'environ trois fois par rapport à Llama XNUMX.
Instruction de mise au point et de performances
Pour libérer tout le potentiel de Llama 3 en matière d'applications de chat et de dialogue, Meta a innové dans son approche de la mise au point des instructions. Sa méthode combine mise au point supervisée (SFT), échantillonnage de rejet, optimisation des politiques proximales (OPP), et optimisation des préférences directes (DPO).
La qualité des invites utilisées dans SFT et les classements de préférences utilisés dans PPO et DPO ont joué un rôle crucial dans les performances des modèles alignés. L'équipe de Meta a soigneusement conservé ces données et effectué plusieurs cycles d'assurance qualité sur les annotations fournies par des annotateurs humains.
La formation sur les classements de préférences via PPO et DPO a également considérablement amélioré les performances de Llama 3 dans les tâches de raisonnement et de codage. Meta a découvert que même lorsqu'un modèle a du mal à répondre directement à une question de raisonnement, il peut toujours produire la trace de raisonnement correcte. La formation sur les classements de préférences a permis au modèle d'apprendre à sélectionner la bonne réponse à partir de ces traces.
Les résultats parlent d'eux-mêmes : Llama 3 surpasse de nombreux modèles de chat open source disponibles sur les références courantes de l'industrie, établissant de nouvelles performances de pointe pour les LLM aux échelles de paramètres 8B et 70B.
Considérations relatives au développement responsable et à la sécurité
Tout en recherchant des performances de pointe, Meta a également donné la priorité aux pratiques de développement et de déploiement responsables pour Llama 3. La société a adopté une approche au niveau du système, envisageant les modèles Llama 3 comme faisant partie d'un écosystème plus large qui place les développeurs aux commandes, leur permettant de concevoir et personnalisez les modèles en fonction de leurs cas d'utilisation spécifiques et de leurs exigences de sécurité.
Meta a mené de nombreux exercices d'équipe rouge, effectué des évaluations contradictoires et mis en œuvre des techniques d'atténuation de la sécurité pour réduire les risques résiduels dans ses modèles adaptés aux instructions. Cependant, la société reconnaît que des risques résiduels persisteront probablement et recommande aux développeurs d'évaluer ces risques dans le contexte de leurs cas d'utilisation spécifiques.
Pour soutenir un déploiement responsable, Meta a mis à jour son Guide d'utilisation responsable, fournissant une ressource complète permettant aux développeurs de mettre en œuvre les meilleures pratiques de sécurité au niveau du modèle et du système pour leurs applications. Le guide couvre des sujets tels que la modération du contenu, l'évaluation des risques et l'utilisation d'outils de sécurité tels que Llama Guard 2 et Code Shield.
Llama Guard 2, construit sur la taxonomie MLCommons, est conçu pour classer les entrées (invites) et les réponses LLM, en détectant le contenu qui peut être considéré comme dangereux ou nuisible. CyberSecEval 2 étend son prédécesseur en ajoutant des mesures visant à empêcher les abus de l'interpréteur de code du modèle, les capacités de cybersécurité offensives et la susceptibilité aux attaques par injection rapide.
Code Shield, une nouvelle introduction avec Llama 3, ajoute un filtrage au moment de l'inférence du code non sécurisé produit par les LLM, atténuant ainsi les risques associés aux suggestions de code non sécurisé, aux abus de l'interpréteur de code et à l'exécution de commandes sécurisées.
Accéder et utiliser Llama 3
Suite au lancement de Llama 3 de Meta AI, plusieurs outils open source ont été mis à disposition pour un déploiement local sur divers systèmes d'exploitation, notamment Mac, Windows et Linux. Cette section détaille trois outils notables : Ollama, Open WebUI et LM Studio, chacun offrant des fonctionnalités uniques pour exploiter les capacités de Llama 3 sur les appareils personnels.
Ollama: Disponible pour Mac, Linux et Windows, Ollama simplifie le fonctionnement de Llama 3 et d'autres grands modèles de langage sur les ordinateurs personnels, même ceux dotés d'un matériel moins robuste. Il comprend un gestionnaire de packages pour une gestion facile des modèles et prend en charge les commandes sur toutes les plates-formes pour télécharger et exécuter des modèles.
Ouvrez l'interface Web avec Docker: Cet outil fournit une interface conviviale, DockerInterface basée sur Mac, Linux et Windows. Il s'intègre parfaitement aux modèles du registre Ollama, permettant aux utilisateurs de déployer et d'interagir avec des modèles comme Llama 3 dans une interface Web locale.
Studio LM: Ciblant les utilisateurs sur Mac, Linux et Windows, Studio LM prend en charge une gamme de modèles et est construit sur le projet llama.cpp. Il fournit une interface de discussion et facilite l'interaction directe avec divers modèles, y compris le modèle Llama 3 8B Instruct.
Ces outils garantissent que les utilisateurs peuvent utiliser efficacement Llama 3 sur leurs appareils personnels, en s'adaptant à une gamme de compétences et d'exigences techniques. Chaque plateforme propose des processus étape par étape pour la configuration et l'interaction des modèles, rendant l'IA avancée plus accessible aux développeurs et aux passionnés.