Suivez nous sur

L'essor du mĂ©lange d'experts : comment les modèles d'IA clairsemĂ©s façonnent l'avenir de l'apprentissage automatique

AI 101

L'essor du mĂ©lange d'experts : comment les modèles d'IA clairsemĂ©s façonnent l'avenir de l'apprentissage automatique

mm

Mélange d'experts (MoE) Les modèles révolutionnent la façon dont nous faisons évoluer l'IA. En n'activant qu'un sous-ensemble de ses composants à un instant T, les MoE offrent une approche novatrice pour gérer le compromis entre taille du modèle et efficacité de calcul. Contrairement aux modèles denses traditionnels qui utilisent tous les paramètres pour chaque entrée, les MoE permettent d'atteindre un nombre considérable de paramètres tout en maîtrisant les coûts d'inférence et de formation. Cette avancée a alimenté une vague de recherche et développement, incitant les géants de la technologie comme les startups à investir massivement dans les architectures basées sur les MoE.

Comment fonctionnent les modèles de mélange d'experts

Fondamentalement, les modèles MoE sont constituĂ©s de plusieurs sous-rĂ©seaux spĂ©cialisĂ©s appelĂ©s « experts Â», supervisĂ©s par un mĂ©canisme de sĂ©lection qui dĂ©termine quels experts doivent traiter chaque entrĂ©e. Par exemple, une phrase transmise Ă  un modèle de langage peut n'impliquer que deux experts sur huit, ce qui rĂ©duit considĂ©rablement la charge de calcul.

Ce concept a été introduit dans le courant dominant avec Les modèles Switch Transformer et GLaM de Google, où les experts ont remplacé les couches de rétroaction traditionnelles dans Transformers. Switch Transformer, par exemple, achemine les jetons vers un seul expert par couche, tandis que GLaM utilise le routage top-2 pour de meilleures performances. Ces conceptions ont démontré que les MoE pouvaient égaler, voire surpasser, les modèles denses comme GPT-3, tout en consommant nettement moins d'énergie et de calcul.

L'innovation clé réside dans le calcul conditionnel. Au lieu de lancer l'intégralité du modèle, les MoE n'activent que les parties les plus pertinentes, ce qui signifie qu'un modèle comportant des centaines de milliards, voire des milliers de milliards de paramètres, peut fonctionner avec l'efficacité d'un modèle beaucoup plus petit. Cela permet aux chercheurs d'augmenter la capacité sans augmentation linéaire des calculs, un exploit impossible à réaliser avec les méthodes de mise à l'échelle traditionnelles.

Applications concrètes du MoE

Les modèles MoE ont dĂ©jĂ  fait leurs preuves dans plusieurs domaines. GLaM et Switch Transformer de Google ont montrĂ© des rĂ©sultats de pointe en matière de modĂ©lisation linguistique, avec des coĂ»ts d'apprentissage et d'infĂ©rence rĂ©duits. Le MoE Z-Code de Microsoft est opĂ©rationnel dans son outil Translator, prenant en charge plus de 100 langues avec une prĂ©cision et une efficacitĂ© supĂ©rieures aux modèles prĂ©cĂ©dents. Il ne s'agit pas de simples projets de recherche : ils alimentent des services en direct.

En vision par ordinateur, L'architecture V-MoE de Google a amélioré la précision de la classification sur des benchmarks comme ImageNet, et le modèle LIMoE a démontré d'excellentes performances dans les tâches multimodales impliquant à la fois des images et du texte. La capacité des experts à se spécialiser – certains traitant du texte, d'autres des images – ajoute un nouveau niveau de capacité aux systèmes d'IA.

Les systèmes de recommandation et les plateformes d'apprentissage multitâches ont Ă©galement bĂ©nĂ©ficiĂ© des mĂ©canismes d'apprentissage. Par exemple : Le moteur de recommandation de YouTube a utilisĂ© une architecture de type MoE pour gĂ©rer plus efficacement des objectifs tels que la durĂ©e de visionnage et le taux de clics. En affectant diffĂ©rents experts Ă  diffĂ©rentes tâches ou comportements utilisateurs, les MoE contribuent Ă  crĂ©er des moteurs de personnalisation plus robustes.

Avantages et défis

Le principal avantage des MoE rĂ©side dans leur efficacitĂ©. Ils permettent d'entraĂ®ner et de dĂ©ployer des modèles massifs avec une puissance de calcul nettement infĂ©rieure. Par exemple, le modèle Mixtral 8Ă—7B de Mistral AI possède 47 B de paramètres au total, mais n'en active que 12.9 B par jeton, ce qui lui confère la rentabilitĂ© d'un modèle 13 B tout en rivalisant en qualitĂ© avec des modèles comme GPT-3.5.

Les modèles d'expérience favorisent également la spécialisation. Puisque différents experts peuvent apprendre des modèles distincts, le modèle global devient plus performant pour gérer des entrées diverses. Ceci est particulièrement utile pour les tâches multilingues, multidomaines ou multimodales, où un modèle dense et uniforme peut s'avérer peu performant.

Cependant, les MoE prĂ©sentent des dĂ©fis d'ingĂ©nierie. Leur formation nĂ©cessite un Ă©quilibrage minutieux pour garantir l'utilisation efficace de tous les experts. La surcharge mĂ©moire est un autre problème : mĂŞme si seule une fraction des paramètres est active par infĂ©rence, tous doivent ĂŞtre chargĂ©s en mĂ©moire. RĂ©partir efficacement les calculs entre les GPU ou les TPU n'est pas une mince affaire et a conduit au dĂ©veloppement de frameworks spĂ©cialisĂ©s comme DeepSpeed ​​de Microsoft et GShard de Google.

Malgré ces obstacles, les avantages en termes de performances et de coûts sont suffisamment importants pour que les modèles d'expérience soient désormais considérés comme un élément essentiel de la conception d'IA à grande échelle. À mesure que les outils et les infrastructures gagnent en maturité, ces défis sont progressivement surmontés.

Comparaison du MoE avec d'autres méthodes de mise à l'échelle

La mise à l'échelle dense traditionnelle augmente proportionnellement la taille du modèle et les capacités de calcul. Les MoE rompent cette linéarité en augmentant le nombre total de paramètres sans augmenter les capacités de calcul par entrée. Cela permet d'entraîner des modèles comportant des milliards de paramètres sur le même matériel, auparavant limité à des dizaines de milliards.

Comparés à l'assemblage de modèles, qui introduit également une spécialisation mais nécessite plusieurs passages complets, les modèles d'expérience sont bien plus efficaces. Au lieu d'exécuter plusieurs modèles en parallèle, les modèles d'expérience n'en exécutent qu'un seul, mais avec l'avantage de multiples parcours d'expertise.

Les MoE complètent également des stratégies telles que la mise à l'échelle des données d'entraînement (par exemple, la méthode Chinchilla). Si Chinchilla privilégie l'utilisation de plus de données avec des modèles plus petits, les MoE augmentent la capacité du modèle tout en préservant la stabilité du calcul, ce qui les rend idéales lorsque le calcul constitue un goulot d'étranglement.

Enfin, alors que des techniques comme l'élagage et la quantification réduisent la taille des modèles après l'entraînement, les MoE augmentent leur capacité pendant l'entraînement. Ils ne remplacent pas la compression, mais constituent un outil orthogonal pour une croissance efficace.

Les entreprises à la tête de la révolution du ministère de l'Éducation

Géants de la technologie

Google a été le pionnier d'une grande partie de la recherche actuelle du ministère de l'ÉducationLeurs modèles Switch Transformer et GLaM ont été mis à l'échelle avec des paramètres respectifs de 1.6 T et 1.2 T. GLaM a atteint les performances de GPT-3 tout en consommant seulement un tiers de l'énergie. Google a également appliqué les MoE à la vision (V-MoE) et aux tâches multimodales (LIMoE), conformément à sa vision plus large de Pathways pour les modèles d'IA universels.

Microsoft a MoE intégré dans la production via son modèle Z-Code dans Microsoft TranslatorElle a également développé DeepSpeed-MoE, permettant un apprentissage rapide et une inférence à faible latence pour les modèles à mille milliards de paramètres. Ses contributions incluent des algorithmes de routage et la bibliothèque Tutel pour un calcul MoE efficace.

Meta exploré MoEs dans les modèles linguistiques à grande échelle et systèmes de recommandation. Leur modèle MoE de 1.1 T a montré qu'il pouvait égaler la qualité d'un modèle dense en utilisant 4 fois moins de calcul. Bien que les modèles LLaMA soient denses, les recherches de Meta sur le MoE continuent d'informer la communauté au sens large.

Amazon soutient les ministères de l'Éducation via sa plateforme SageMaker et des efforts internes. Ils ont facilité la formation du modèle Mixtral de Mistral et utiliseraient des MoE dans des services comme Alexa AI. La documentation AWS promeut activement les MoE pour la formation de modèles à grande échelle.

Huawei et BAIE en Chine ont également développé des modèles MoE qui battent tous les records, comme PanGu-Σ (1.085T paramètres). Cela démontre le potentiel du MoE dans les tâches linguistiques et multimodales et souligne son attrait mondial.

Startups et Challengers

IA Mistral est l'enfant chéri de Innovation du ministère de l'Éducation dans le domaine de l'open sourceLeurs modèles Mixtral 8×7B et 8×22B ont prouvé que les MoE pouvaient surpasser des modèles denses comme LLaMA-2 70B, tout en étant beaucoup plus économiques. Avec plus de 600 millions d'euros de financement, Mistral mise gros sur les architectures creuses.

xIA, fondée par Elon Musk, est ils exploreraient apparemment les MoE dans leur modèle Grok. Bien que les détails soient limités, les MoE offrent aux startups comme xAI un moyen de rivaliser avec des acteurs plus importants sans avoir besoin de calculs massifs.

Databricks, via son acquisition MosaicML, a publié DBX, un modèle MoE ouvert conçu pour l'efficacité. Ils fournissent également l'infrastructure et les recettes nécessaires à la formation MoE, réduisant ainsi les obstacles à l'adoption.

D'autres acteurs comme Hugging Face ont intégré la prise en charge des MoE à leurs bibliothèques, facilitant ainsi la création de ces modèles par les développeurs. Même s'ils ne développent pas eux-mêmes de MoE, les plateformes qui les permettent sont essentielles à l'écosystème.

Conclusion

Les modèles de mĂ©lange d'experts ne sont pas qu'une simple tendance : ils reprĂ©sentent une transformation fondamentale dans la conception et le dĂ©ploiement des systèmes d'IA. En activant sĂ©lectivement certaines parties d'un rĂ©seau, les modèles d'expĂ©riences (MoE) offrent la puissance de modèles massifs sans leur coĂ»t prohibitif. Ă€ mesure que l'infrastructure logicielle rattrape son retard et que les algorithmes de routage s'amĂ©liorent, les MoE sont en passe de devenir l'architecture par dĂ©faut de l'IA multidomaine, multilingue et multimodale.

Que vous soyez chercheur, ingénieur ou investisseur, les MoE offrent un aperçu d’un avenir où l’IA est plus puissante, efficace et adaptable que jamais.

Antoine est un leader visionnaire et partenaire fondateur d'Unite.AI, animé par une passion inébranlable pour façonner et promouvoir l'avenir de l'IA et de la robotique. Entrepreneur en série, il croit que l'IA sera aussi perturbatrice pour la société que l'électricité, et on le surprend souvent en train de s'extasier sur le potentiel des technologies disruptives et de l'AGI.

En futuriste, il se consacre à l'exploration de la manière dont ces innovations façonneront notre monde. En outre, il est le fondateur de Titres.io, une plateforme axée sur l’investissement dans les technologies de pointe qui redéfinissent l’avenir et remodèlent des secteurs entiers.