Intelligence artificielle
Liquid AI Lance Les Modèles de Fondation Liquide : Un Changement de Jeu Dans l’IA Générative
Dans une annonce révolutionnaire, Liquid AI, une spin-off du MIT, a introduit sa première série de Modèles de Fondation Liquide (LFM). Ces modèles, conçus à partir de principes fondamentaux, établissent une nouvelle référence dans l’espace de l’IA générative, offrant des performances inégalées à différentes échelles. Les LFM, avec leur architecture innovante et leurs capacités avancées, sont prêts à concurrencer les modèles d’IA leaders de l’industrie, y compris ChatGPT.
Liquid AI a été fondée par une équipe de chercheurs du MIT, notamment Ramin Hasani, Mathias Lechner, Alexander Amini, et Daniela Rus. Basée à Boston, dans le Massachusetts, la mission de l’entreprise est de créer des systèmes d’IA polyvalents et efficaces pour les entreprises de toutes tailles. L’équipe a initialement fait des recherches sur les réseaux de neurones liquides, une classe de modèles d’IA inspirés par la dynamique cérébrale, et vise maintenant à étendre les capacités des systèmes d’IA à toutes les échelles, des appareils périphériques aux déploiements d’entreprise.
Qu’est-ce que les Modèles de Fondation Liquide (LFM) ?
Les Modèles de Fondation Liquide représentent une nouvelle génération de systèmes d’IA qui sont très efficaces en termes d’utilisation de la mémoire et de puissance de calcul. Conçus à partir de principes de systèmes dynamiques, de traitement du signal et d’algèbre linéaire numérique, ces modèles sont conçus pour gérer différents types de données séquentielles – telles que le texte, la vidéo, l’audio et les signaux – avec une remarquable précision.
Liquid AI a développé trois modèles de langage principaux dans le cadre de ce lancement :
- LFM-1B : Un modèle dense avec 1,3 milliard de paramètres, optimisé pour les environnements à ressources limitées.
- LFM-3B : Un modèle de 3,1 milliards de paramètres, idéal pour les scénarios de déploiement périphérique, tels que les applications mobiles.
- LFM-40B : Un modèle de 40,3 milliards de paramètres de type Mixture of Experts (MoE) conçu pour gérer des tâches complexes avec des performances exceptionnelles.
Ces modèles ont déjà démontré des résultats de pointe dans les principaux benchmarks d’IA, les rendant un concurrent redoutable aux modèles d’IA générative existants.
Performances de Pointe
Les LFM de Liquid AI offrent des performances de classe mondiale dans divers benchmarks. Par exemple, le LFM-1B surpasse les modèles basés sur les transformateurs dans sa catégorie de taille, tandis que le LFM-3B concurrence des modèles plus grands comme Microsoft’s Phi-3.5 et Meta’s Llama series. Le modèle LFM-40B, malgré sa taille, est suffisamment efficace pour rivaliser avec des modèles ayant des comptes de paramètres encore plus grands, offrant un équilibre unique entre les performances et l’efficacité des ressources.
Certains points forts des performances des LFM incluent :
- LFM-1B : Domine les benchmarks tels que MMLU et ARC-C, établissant une nouvelle norme pour les modèles de 1 milliard de paramètres.
- LFM-3B : Surpasse des modèles comme Phi-3.5 et Google’s Gemma 2 en termes d’efficacité, tout en maintenant une petite empreinte mémoire, le rendant idéal pour les applications d’IA mobile et périphérique.
- LFM-40B : L’architecture MoE de ce modèle offre des performances comparables à celles de modèles plus grands, avec 12 milliards de paramètres actifs à tout moment.
Une Nouvelle Ère dans l’Efficacité de l’IA
Un défi important dans l’IA moderne est la gestion de la mémoire et du calcul, en particulier lorsqu’il s’agit de tâches à longue portée comme la résumé de documents ou les interactions avec les chatbots. Les LFM excellent dans ce domaine en compressant efficacement les données d’entrée, ce qui se traduit par une consommation de mémoire réduite pendant l’inférence. Cela permet aux modèles de traiter des séquences plus longues sans nécessiter de coûteuses mises à niveau matérielles.
Par exemple, le LFM-3B offre une longueur de contexte de 32k jetons – ce qui en fait l’un des modèles les plus efficaces pour les tâches nécessitant de grandes quantités de données à traiter simultanément.
Une Architecture Révolutionnaire
Les LFM sont construits sur un cadre architectural unique, s’écartant des modèles de transformateurs traditionnels. L’architecture est centrée sur des opérateurs linéaires adaptatifs, qui modulent le calcul en fonction des données d’entrée. Cette approche permet à Liquid AI d’optimiser considérablement les performances sur différentes plateformes matérielles, y compris NVIDIA, AMD, Cerebras et Apple.
L’espace de conception pour les LFM implique un mélange novateur de mélange de jetons et de structures de mélange de canaux qui améliorent la façon dont le modèle traite les données. Cela conduit à une généralisation et à des capacités de raisonnement supérieures, en particulier dans les tâches à longue portée et les applications multimodales.
Élargir la Frontière de l’IA
Liquid AI a des ambitions grandioses pour les LFM. Au-delà des modèles de langage, l’entreprise travaille à étendre ses modèles de fondation pour prendre en charge différents types de données, notamment la vidéo, l’audio et les données de série chronologique. Ces progrès permettront aux LFM de s’étendre à plusieurs industries, telles que les services financiers, la biotechnologie et les produits électroniques grand public.
L’entreprise se concentre également sur la contribution à la communauté scientifique ouverte. Même si les modèles eux-mêmes ne sont pas open source pour le moment, Liquid AI prévoit de publier les résultats de recherche pertinents, les méthodes et les ensembles de données à la communauté d’IA plus large, encourageant la collaboration et l’innovation.
Accès Précoce et Adoption
Liquid AI propose actuellement un accès précoce à ses LFM via différentes plateformes, notamment Liquid Playground, Lambda (Chat UI et API), et Perplexity Labs. Les entreprises souhaitant intégrer des systèmes d’IA de pointe dans leurs opérations peuvent explorer le potentiel des LFM dans différents environnements de déploiement, des appareils périphériques aux solutions sur site.
L’approche open-science de Liquid AI encourage les premiers adoptants à partager leurs expériences et leurs connaissances. L’entreprise recherche activement des commentaires pour affiner et optimiser ses modèles pour les applications du monde réel. Les développeurs et les organisations intéressés à faire partie de ce voyage peuvent contribuer aux efforts de test et aider Liquid AI à améliorer ses systèmes d’IA.
Conclusion
La sortie des Modèles de Fondation Liquide marque une avancée significative dans le paysage de l’IA. Avec un focus sur l’efficacité, l’adaptabilité et les performances, les LFM sont prêts à redéfinir la façon dont les entreprises abordent l’intégration de l’IA. À mesure que davantage d’organisations adoptent ces modèles, la vision de Liquid AI de systèmes d’IA polyvalents et évolutifs deviendra probablement un élément clé de la prochaine ère de l’intelligence artificielle.
Si vous êtes intéressé à explorer le potentiel des LFM pour votre organisation, Liquid AI vous invite à entrer en contact et à rejoindre la communauté grandissante de premiers adoptants qui façonnent l’avenir de l’IA.
Pour plus d’informations, visitez le site officiel de Liquid AI et commencez à expérimenter avec les LFM dès aujourd’hui.












