Intelligence Artificielle
Tout ce que vous devez savoir sur Llama 3 | Le modèle open source le plus puissant à ce jour | Concepts d'utilisation
Meta a récemment publié Llama 3, la prochaine génération de son grand modèle de langage (LLM) open source de pointe. S'appuyant sur les bases établies par son prédécesseur, Llama 3 vise à améliorer les capacités qui ont positionné Llama 2 comme un concurrent open source important de ChatGPT, comme indiqué dans l'examen complet de l'article. Llama 2 : une plongée approfondie dans le challenger open source de ChatGPT.
Dans cet article, nous discuterons des concepts de base derrière Llama 3, explorerons son architecture innovante et son processus de formation, et fournirons des conseils pratiques sur la manière d'accéder, d'utiliser et de déployer ce modèle révolutionnaire de manière responsable. Que vous soyez chercheur, développeur ou passionné d'IA, cet article vous fournira les connaissances et les ressources nécessaires pour exploiter la puissance de Llama 3 pour vos projets et applications.
L'évolution du lama : du lama 2 au lama 3
Le PDG de Meta, Mark Zuckerberg, annoncé Lancement de Llama 3, le dernier modèle d'IA développé par Meta AI. Ce modèle de pointe, désormais open source, est destiné à améliorer les différents produits de Meta, notamment Messenger et Instagram. Zuckerberg a souligné que Llama 3 positionne Meta AI comme le modèle le plus avancé. assistant IA disponible gratuitement.
Avant de parler des spécificités de Llama 3, revenons brièvement sur son prédécesseur, Llama 2. Lancé en 2022, Llama 2 a constitué une étape importante dans le paysage LLM open source, offrant un modèle puissant et efficace pouvant être exécuté sur du matériel grand public.
Cependant, même si Llama 2 était une réussite notable, il avait ses limites. Les utilisateurs ont signalé des problèmes de faux refus (le modèle refusant de répondre à des invites bénignes), une utilité limitée et des possibilités d'amélioration dans des domaines tels que le raisonnement et la génération de code.
Découvrez Llama 3 : la réponse de Meta à ces défis et aux retours de la communauté. Avec Llama 3, Meta s'est donné pour mission de créer les meilleurs modèles open source, comparables aux meilleurs modèles propriétaires disponibles aujourd'hui, tout en privilégiant des pratiques de développement et de déploiement responsables.
Lama 3 : Architecture et formation
L'une des innovations clés de Llama 3 est son tokenizer, qui propose un vocabulaire considérablement élargi de Jetons 128,256 (contre 32,000 2 dans Llama XNUMX). Ce vocabulaire plus large permet un codage plus efficace du texte, tant pour l'entrée que pour la sortie, conduisant potentiellement à un multilinguisme plus fort et à des améliorations globales des performances.
Llama 3 intègre également Attention aux requêtes groupées (GQA), une technique de représentation efficace qui améliore l'évolutivité et aide le modèle à gérer plus efficacement des contextes plus longs. Le 8B La version de Llama 3 utilise GQA, tandis que les deux 8B et 70B les modèles peuvent traiter des séquences jusqu'à Jetons 8,192.
Données de formation et mise à l'échelle
Les données d'entraînement utilisées pour Llama 3 sont un facteur crucial dans l'amélioration de ses performances. Meta a organisé un ensemble de données massif de plus de 15 billions jetons provenant de sources en ligne accessibles au public, sept fois plus volumineux que l'ensemble de données utilisé pour Llama 2. Cet ensemble de données comprend également une partie importante (plus de 5 %) de données non anglaises de haute qualité, couvrant plus de 30 langues , en préparation de futures applications multilingues.
Pour garantir la qualité des données, Meta a utilisé des techniques de filtrage avancées, notamment des filtres heuristiques, des filtres NSFW, une déduplication sémantique et des classificateurs de texte formés sur Llama 2 pour prédire la qualité des données. L'équipe a également mené des expériences approfondies pour déterminer la combinaison optimale de sources de données pour le pré-entraînement, garantissant ainsi que Llama 3 fonctionne bien dans un large éventail de cas d'utilisation, notamment les anecdotes, les STEM, le codage et les connaissances historiques.
L'intensification du pré-entraînement a constitué un autre aspect crucial du développement de Llama 3. Meta a développé des lois d'échelle lui permettant de prédire les performances de ses plus grands modèles sur des tâches clés, comme la génération de code, avant même de les entraîner. Cela a permis d'éclairer les décisions relatives à la composition des données et à l'allocation des ressources de calcul, ce qui a finalement permis un entraînement plus efficace.
Les plus grands modèles de Llama 3 ont été entraînés sur deux clusters personnalisés de 24,000 2 GPU, exploitant une combinaison de techniques de parallélisation des données, des modèles et des pipelines. La pile d'entraînement avancée de Meta automatise la détection, la gestion et la maintenance des erreurs, optimisant ainsi la disponibilité du GPU et multipliant par trois environ l'efficacité de l'entraînement par rapport à Llama XNUMX.
Instruction de mise au point et de performances
Pour exploiter pleinement le potentiel de Llama 3 en matière de chat et de dialogue, Meta a innové dans son approche de l'optimisation des instructions. Sa méthode combine mise au point supervisée (SFT), échantillonnage de rejet, optimisation des politiques proximales (OPP), et optimisation des préférences directes (DPO).
La qualité des invites utilisées dans SFT et les classements de préférences utilisés dans PPO et DPO ont joué un rôle crucial dans la performance des modèles alignés. L'équipe de Meta a soigneusement organisé ces données et a effectué plusieurs cycles d'assurance qualité sur les annotations fournies par les annotateurs humains.
L'entraînement aux classements de préférences via PPO et DPO a également considérablement amélioré les performances de Llama 3 dans les tâches de raisonnement et de codage. Meta a constaté que même lorsqu'un modèle peine à répondre directement à une question de raisonnement, il peut néanmoins produire la trace de raisonnement correcte. L'entraînement aux classements de préférences a permis au modèle d'apprendre à sélectionner la bonne réponse parmi ces traces.
Les résultats parlent d'eux-mêmes : Llama 3 surpasse de nombreux modèles de chat open source disponibles sur les références courantes de l'industrie, établissant de nouvelles performances de pointe pour les LLM aux échelles de paramètres 8B et 70B.
Considérations relatives au développement responsable et à la sécurité
Tout en recherchant des performances de pointe, Meta a également donné la priorité aux pratiques de développement et de déploiement responsables pour Llama 3. L'entreprise a adopté une approche au niveau du système, envisageant les modèles Llama 3 comme faisant partie d'un écosystème plus large qui place les développeurs aux commandes, leur permettant de concevoir et de personnaliser les modèles en fonction de leurs cas d'utilisation spécifiques et de leurs exigences de sécurité.
Meta a mené de nombreux exercices d'équipe rouge, effectué des évaluations contradictoires et mis en œuvre des techniques d'atténuation de la sécurité pour réduire les risques résiduels dans ses modèles adaptés aux instructions. Cependant, la société reconnaît que des risques résiduels persisteront probablement et recommande aux développeurs d'évaluer ces risques dans le contexte de leurs cas d'utilisation spécifiques.
Pour soutenir un déploiement responsable, Meta a mis à jour son Guide d'utilisation responsable, fournissant une ressource complète permettant aux développeurs de mettre en œuvre les meilleures pratiques de sécurité au niveau du modèle et du système pour leurs applications. Le guide couvre des sujets tels que la modération du contenu, l'évaluation des risques et l'utilisation d'outils de sécurité tels que Llama Guard 2 et Code Shield.
Llama Guard 2, basé sur la taxonomie MLCommons, est conçu pour classer les entrées (invites) et les réponses LLM, détectant ainsi les contenus potentiellement dangereux ou nuisibles. CyberSecEval 2 complète son prédécesseur en ajoutant des mesures visant à prévenir les abus de l'interpréteur de code du modèle, des capacités de cybersécurité offensives et la vulnérabilité aux attaques par injection d'invites.
Code Shield, une nouvelle introduction avec Llama 3, ajoute un filtrage au moment de l'inférence du code non sécurisé produit par les LLM, atténuant ainsi les risques associés aux suggestions de code non sécurisé, aux abus de l'interpréteur de code et à l'exécution de commandes sécurisées.
Accéder et utiliser Llama 3
Suite au lancement de Llama 3 de Meta AI, plusieurs outils open source ont été mis à disposition pour un déploiement local sur différents systèmes d'exploitation, notamment Mac, Windows et Linux. Cette section détaille trois outils remarquables : Ollama, Open WebUI et LM Studio, chacun offrant des fonctionnalités uniques pour exploiter les capacités de Llama 3 sur des appareils personnels.
Ollama: Disponible pour Mac, Linux et Windows, Ollama simplifie le fonctionnement de Llama 3 et d'autres grands modèles de langage sur les ordinateurs personnels, même ceux dotés d'un matériel moins robuste. Il comprend un gestionnaire de packages pour une gestion facile des modèles et prend en charge les commandes sur toutes les plates-formes pour télécharger et exécuter des modèles.
Ouvrez l'interface Web avec Docker: Cet outil fournit une interface conviviale, DockerInterface basée sur Mac, Linux et Windows. Il s'intègre parfaitement aux modèles du registre Ollama, permettant aux utilisateurs de déployer et d'interagir avec des modèles comme Llama 3 dans une interface Web locale.
Studio LM: Ciblant les utilisateurs sur Mac, Linux et Windows, Studio LM prend en charge une gamme de modèles et est construit sur le projet llama.cpp. Il fournit une interface de discussion et facilite l'interaction directe avec divers modèles, y compris le modèle Llama 3 8B Instruct.
Ces outils garantissent que les utilisateurs peuvent utiliser efficacement Llama 3 sur leurs appareils personnels, en s'adaptant à une gamme de compétences et d'exigences techniques. Chaque plateforme propose des processus étape par étape pour la configuration et l'interaction des modèles, rendant l'IA avancée plus accessible aux développeurs et aux passionnés.













