Suivez nous sur

Tout ce que vous devez savoir sur Llama 3 | Le modèle open source le plus puissant à ce jour | Concepts d'utilisation

Intelligence Artificielle

Tout ce que vous devez savoir sur Llama 3 | Le modèle open source le plus puissant à ce jour | Concepts d'utilisation

mm
Meta Llama 3 LLM open source SURPERFORMER GPT 4

Meta a rĂ©cemment publiĂ© Llama 3, la prochaine gĂ©nĂ©ration de son grand modèle de langage (LLM) open source de pointe. S'appuyant sur les bases Ă©tablies par son prĂ©dĂ©cesseur, Llama 3 vise Ă  amĂ©liorer les capacitĂ©s qui ont positionnĂ© Llama 2 comme un concurrent open source important de ChatGPT, comme indiquĂ© dans l'examen complet de l'article. Llama 2 : une plongĂ©e approfondie dans le challenger open source de ChatGPT.

Dans cet article, nous discuterons des concepts de base derrière Llama 3, explorerons son architecture innovante et son processus de formation, et fournirons des conseils pratiques sur la manière d'accéder, d'utiliser et de déployer ce modèle révolutionnaire de manière responsable. Que vous soyez chercheur, développeur ou passionné d'IA, cet article vous fournira les connaissances et les ressources nécessaires pour exploiter la puissance de Llama 3 pour vos projets et applications.

L'évolution du lama : du lama 2 au lama 3

Le PDG de Meta, Mark Zuckerberg, annoncé Lancement de Llama 3, le dernier modèle d'IA développé par Meta AI. Ce modèle de pointe, désormais open source, est destiné à améliorer les différents produits de Meta, notamment Messenger et Instagram. Zuckerberg a souligné que Llama 3 positionne Meta AI comme le modèle le plus avancé. assistant IA disponible gratuitement.

Avant de parler des spécificités de Llama 3, revenons brièvement sur son prédécesseur, Llama 2. Lancé en 2022, Llama 2 a constitué une étape importante dans le paysage LLM open source, offrant un modèle puissant et efficace pouvant être exécuté sur du matériel grand public.

Cependant, même si Llama 2 était une réussite notable, il avait ses limites. Les utilisateurs ont signalé des problèmes de faux refus (le modèle refusant de répondre à des invites bénignes), une utilité limitée et des possibilités d'amélioration dans des domaines tels que le raisonnement et la génération de code.

DĂ©couvrez Llama 3 : la rĂ©ponse de Meta Ă  ces dĂ©fis et aux retours de la communautĂ©. Avec Llama 3, Meta s'est donnĂ© pour mission de crĂ©er les meilleurs modèles open source, comparables aux meilleurs modèles propriĂ©taires disponibles aujourd'hui, tout en privilĂ©giant des pratiques de dĂ©veloppement et de dĂ©ploiement responsables.

Lama 3 : Architecture et formation

L'une des innovations clés de Llama 3 est son tokenizer, qui propose un vocabulaire considérablement élargi de Jetons 128,256 (contre 32,000 2 dans Llama XNUMX). Ce vocabulaire plus large permet un codage plus efficace du texte, tant pour l'entrée que pour la sortie, conduisant potentiellement à un multilinguisme plus fort et à des améliorations globales des performances.

Llama 3 intègre également Attention aux requêtes groupées (GQA), une technique de représentation efficace qui améliore l'évolutivité et aide le modèle à gérer plus efficacement des contextes plus longs. Le 8B La version de Llama 3 utilise GQA, tandis que les deux 8B et 70B les modèles peuvent traiter des séquences jusqu'à Jetons 8,192.

Données de formation et mise à l'échelle

Les données d'entraînement utilisées pour Llama 3 sont un facteur crucial dans l'amélioration de ses performances. Meta a organisé un ensemble de données massif de plus de 15 billions jetons provenant de sources en ligne accessibles au public, sept fois plus volumineux que l'ensemble de données utilisé pour Llama 2. Cet ensemble de données comprend également une partie importante (plus de 5 %) de données non anglaises de haute qualité, couvrant plus de 30 langues , en préparation de futures applications multilingues.

Pour garantir la qualité des données, Meta a utilisé des techniques de filtrage avancées, notamment des filtres heuristiques, des filtres NSFW, une déduplication sémantique et des classificateurs de texte formés sur Llama 2 pour prédire la qualité des données. L'équipe a également mené des expériences approfondies pour déterminer la combinaison optimale de sources de données pour le pré-entraînement, garantissant ainsi que Llama 3 fonctionne bien dans un large éventail de cas d'utilisation, notamment les anecdotes, les STEM, le codage et les connaissances historiques.

L'intensification du pré-entraînement a constitué un autre aspect crucial du développement de Llama 3. Meta a développé des lois d'échelle lui permettant de prédire les performances de ses plus grands modèles sur des tâches clés, comme la génération de code, avant même de les entraîner. Cela a permis d'éclairer les décisions relatives à la composition des données et à l'allocation des ressources de calcul, ce qui a finalement permis un entraînement plus efficace.

Les plus grands modèles de Llama 3 ont Ă©tĂ© entraĂ®nĂ©s sur deux clusters personnalisĂ©s de 24,000 2 GPU, exploitant une combinaison de techniques de parallĂ©lisation des donnĂ©es, des modèles et des pipelines. La pile d'entraĂ®nement avancĂ©e de Meta automatise la dĂ©tection, la gestion et la maintenance des erreurs, optimisant ainsi la disponibilitĂ© du GPU et multipliant par trois environ l'efficacitĂ© de l'entraĂ®nement par rapport Ă  Llama XNUMX.

Instruction de mise au point et de performances

Pour exploiter pleinement le potentiel de Llama 3 en matière de chat et de dialogue, Meta a innové dans son approche de l'optimisation des instructions. Sa méthode combine mise au point supervisée (SFT), échantillonnage de rejet, optimisation des politiques proximales (OPP), et optimisation des préférences directes (DPO).

La qualité des invites utilisées dans SFT et les classements de préférences utilisés dans PPO et DPO ont joué un rôle crucial dans la performance des modèles alignés. L'équipe de Meta a soigneusement organisé ces données et a effectué plusieurs cycles d'assurance qualité sur les annotations fournies par les annotateurs humains.

L'entraînement aux classements de préférences via PPO et DPO a également considérablement amélioré les performances de Llama 3 dans les tâches de raisonnement et de codage. Meta a constaté que même lorsqu'un modèle peine à répondre directement à une question de raisonnement, il peut néanmoins produire la trace de raisonnement correcte. L'entraînement aux classements de préférences a permis au modèle d'apprendre à sélectionner la bonne réponse parmi ces traces.

Résultats de l'arène

Les rĂ©sultats parlent d'eux-mĂŞmes : Llama 3 surpasse de nombreux modèles de chat open source disponibles sur les rĂ©fĂ©rences courantes de l'industrie, Ă©tablissant de nouvelles performances de pointe pour les LLM aux Ă©chelles de paramètres 8B et 70B.

Considérations relatives au développement responsable et à la sécurité

Tout en recherchant des performances de pointe, Meta a également donné la priorité aux pratiques de développement et de déploiement responsables pour Llama 3. L'entreprise a adopté une approche au niveau du système, envisageant les modèles Llama 3 comme faisant partie d'un écosystème plus large qui place les développeurs aux commandes, leur permettant de concevoir et de personnaliser les modèles en fonction de leurs cas d'utilisation spécifiques et de leurs exigences de sécurité.

Meta a mené de nombreux exercices d'équipe rouge, effectué des évaluations contradictoires et mis en œuvre des techniques d'atténuation de la sécurité pour réduire les risques résiduels dans ses modèles adaptés aux instructions. Cependant, la société reconnaît que des risques résiduels persisteront probablement et recommande aux développeurs d'évaluer ces risques dans le contexte de leurs cas d'utilisation spécifiques.

Pour soutenir un déploiement responsable, Meta a mis à jour son Guide d'utilisation responsable, fournissant une ressource complète permettant aux développeurs de mettre en œuvre les meilleures pratiques de sécurité au niveau du modèle et du système pour leurs applications. Le guide couvre des sujets tels que la modération du contenu, l'évaluation des risques et l'utilisation d'outils de sécurité tels que Llama Guard 2 et Code Shield.

Llama Guard 2, basé sur la taxonomie MLCommons, est conçu pour classer les entrées (invites) et les réponses LLM, détectant ainsi les contenus potentiellement dangereux ou nuisibles. CyberSecEval 2 complète son prédécesseur en ajoutant des mesures visant à prévenir les abus de l'interpréteur de code du modèle, des capacités de cybersécurité offensives et la vulnérabilité aux attaques par injection d'invites.

Code Shield, une nouvelle introduction avec Llama 3, ajoute un filtrage au moment de l'inférence du code non sécurisé produit par les LLM, atténuant ainsi les risques associés aux suggestions de code non sécurisé, aux abus de l'interpréteur de code et à l'exécution de commandes sécurisées.

Accéder et utiliser Llama 3

Suite au lancement de Llama 3 de Meta AI, plusieurs outils open source ont Ă©tĂ© mis Ă  disposition pour un dĂ©ploiement local sur diffĂ©rents systèmes d'exploitation, notamment Mac, Windows et Linux. Cette section dĂ©taille trois outils remarquables : Ollama, Open WebUI et LM Studio, chacun offrant des fonctionnalitĂ©s uniques pour exploiter les capacitĂ©s de Llama 3 sur des appareils personnels.

Ollama: Disponible pour Mac, Linux et Windows, Ollama simplifie le fonctionnement de Llama 3 et d'autres grands modèles de langage sur les ordinateurs personnels, même ceux dotés d'un matériel moins robuste. Il comprend un gestionnaire de packages pour une gestion facile des modèles et prend en charge les commandes sur toutes les plates-formes pour télécharger et exécuter des modèles.

Ouvrez l'interface Web avec Docker: Cet outil fournit une interface conviviale, DockerInterface basée sur Mac, Linux et Windows. Il s'intègre parfaitement aux modèles du registre Ollama, permettant aux utilisateurs de déployer et d'interagir avec des modèles comme Llama 3 dans une interface Web locale.

Studio LM: Ciblant les utilisateurs sur Mac, Linux et Windows, Studio LM prend en charge une gamme de modèles et est construit sur le projet llama.cpp. Il fournit une interface de discussion et facilite l'interaction directe avec divers modèles, y compris le modèle Llama 3 8B Instruct.

Ces outils garantissent que les utilisateurs peuvent utiliser efficacement Llama 3 sur leurs appareils personnels, en s'adaptant à une gamme de compétences et d'exigences techniques. Chaque plateforme propose des processus étape par étape pour la configuration et l'interaction des modèles, rendant l'IA avancée plus accessible aux développeurs et aux passionnés.

Déployer Llama 3 à grande échelle

En plus de fournir un accès direct aux pondérations du modèle, Meta s'est associé à divers fournisseurs de cloud, services d'API de modèle et plates-formes matérielles pour permettre un déploiement transparent de Llama 3 à grande échelle.

L'un des principaux avantages de Llama 3 est l'efficacitĂ© amĂ©liorĂ©e de ses jetons, grâce au nouveau tokenizer. Les benchmarks montrent que Llama 3 nĂ©cessite jusqu'Ă  15 % de jetons en moins par rapport Ă  Llama 2, ce qui permet une infĂ©rence plus rapide et plus rentable.

L'intégration de Grouped Query Attention (GQA) dans la version 8B de Llama 3 contribue à maintenir une efficacité d'inférence comparable à celle de la version 7B de Llama 2, malgré l'augmentation du nombre de paramètres.

Pour simplifier le processus de déploiement, Meta a mis à disposition le référentiel Llama Recipes, qui contient du code open source et des exemples pour le réglage fin, le déploiement, l'évaluation des modèles, et bien plus encore. Ce référentiel constitue une ressource précieuse pour les développeurs souhaitant exploiter les fonctionnalités de Llama 3 dans leurs applications.

Pour ceux qui souhaitent explorer les performances de Llama 3, Meta a intégré ses derniers modèles à Meta AI, un assistant IA de pointe basé sur la technologie Llama 3. Les utilisateurs peuvent interagir avec Meta AI via diverses applications Meta, telles que Facebook, Instagram, WhatsApp, Messenger et le Web, pour accomplir leurs tâches, apprendre, créer et se connecter à ce qui compte pour eux.

Quelle est la prochaine Ă©tape pour Llama 3 ?

Alors que les modèles 8B et 70B marquent le début de la sortie de Llama 3, Meta a des projets ambitieux pour l'avenir de ce LLM révolutionnaire.

Dans les mois à venir, nous pouvons nous attendre à voir de nouvelles fonctionnalités introduites, notamment la multimodalité (la capacité de traiter et de générer différentes modalités de données, telles que des images et des vidéos), le multilinguisme (prise en charge de plusieurs langues) et des fenêtres contextuelles beaucoup plus longues pour des performances améliorées. tâches qui nécessitent un contexte étendu.

De plus, Meta prévoit de publier des modèles de plus grande taille, y compris des modèles comportant plus de 400 milliards de paramètres, qui sont actuellement en formation et montrent des tendances prometteuses en termes de performances et de capacités.

Pour faire progresser ce domaine, Meta publiera également un document de recherche détaillé sur Llama 3, partageant ses conclusions et ses idées avec la communauté plus large de l'IA.

En avant-première, Meta a partagé quelques aperçus préliminaires des performances de son plus grand modèle LLM sur différents benchmarks. Bien que ces résultats reposent sur un point de contrôle préliminaire et soient susceptibles d'évoluer, ils offrent un aperçu prometteur du potentiel futur de Llama 3.

Conclusion

Llama 3 représente une étape importante dans l'évolution des grands modèles de langage open source, repoussant les limites des performances, des capacités et des pratiques de développement responsable. Avec son architecture innovante, son vaste ensemble de données de formation et ses techniques de réglage fin de pointe, Llama 3 établit de nouvelles références de pointe pour les LLM aux échelles de paramètres 8B et 70B.

Cependant, Llama 3 est bien plus qu'un puissant modèle de langage ; il tĂ©moigne de l'engagement de Meta Ă  promouvoir un Ă©cosystème d'IA ouvert et responsable. En fournissant des ressources complètes, des outils de sĂ©curitĂ© et des bonnes pratiques, Meta permet aux dĂ©veloppeurs d'exploiter tout le potentiel de Llama 3 tout en garantissant un dĂ©ploiement responsable et adaptĂ© Ă  leurs cas d'usage et Ă  leurs publics spĂ©cifiques.

Alors que l'aventure Llama 3 se poursuit, avec de nouvelles capacités, tailles de modèles et résultats de recherche à l'horizon, la communauté de l'IA attend avec impatience les applications innovantes et les percées qui émergeront sans aucun doute de ce LLM révolutionnaire.

Que vous soyez un chercheur repoussant les limites du traitement du langage naturel, un développeur créant la prochaine génération d'applications intelligentes ou un passionné d'IA curieux des dernières avancées, Llama 3 promet d'être un outil puissant dans votre arsenal, ouvrant de nouvelles portes et débloquant un monde de possibilités.

J'ai passé les cinq dernières années à m'immerger dans le monde fascinant du Machine Learning et du Deep Learning. Ma passion et mon expertise m'ont amené à contribuer à plus de 50 projets de génie logiciel divers, avec un accent particulier sur l'IA/ML. Ma curiosité continue m'a également attiré vers le traitement automatique du langage naturel, un domaine que j'ai hâte d'explorer davantage.