Connect with us

Intelligence artificielle

L’IA open-source riposte avec Llama 4 de Meta

mm

Dans les dernières années, le monde de l’IA a évolué d’une culture de collaboration ouverte à une culture dominée par des systèmes propriétaires étroitement gardés. OpenAI – une entreprise littéralement fondée avec « open » dans son nom – a pivoté vers le maintien secret de ses modèles les plus puissants après 2019. Des concurrents comme Anthropic et Google ont également construit des IA de pointe derrière des murs d’API, accessibles uniquement à leurs conditions. Cette approche fermée a été justifiée en partie par des intérêts de sécurité et commerciaux, mais elle a laissé beaucoup dans la communauté déplorer la perte de l’esprit open-source initial.

Maintenant, cet esprit est en train de faire un comeback. Les nouveaux modèles Llama 4 de Meta signalent une tentative audacieuse de raviver l’IA open-source aux plus hauts niveaux – et même des joueurs traditionnellement gardés prennent note. Le PDG d’OpenAI, Sam Altman, a récemment admis que l’entreprise était « du mauvais côté de l’histoire » en ce qui concerne les modèles ouverts et a annoncé des plans pour une « nouvelle variante GPT-4 ouverte et puissante ». En résumé, l’IA open-source riposte, et le sens et la valeur de « ouvert » évoluent.

(Source : Meta)

Llama 4 : le défi ouvert de Meta à GPT-4o, Claude et Gemini

Meta a présenté Llama 4 comme un défi direct aux nouveaux modèles des poids lourds de l’IA, le positionnant comme une alternative ouverte. Llama 4 est disponible aujourd’hui dans deux saveurs – Llama 4 Scout et Llama 4 Maverick – avec des spécifications techniques époustouflantes. Les deux sont des modèles de mélange d’experts (MoE) qui n’activent qu’une fraction de leurs paramètres par requête, permettant une taille totale massive sans coûts de runtime écrasants. Scout et Maverick disposent chacun de 17 milliards de « paramètres actifs » (la partie qui fonctionne sur une entrée donnée), mais grâce à MoE, Scout répartit ceux-ci sur 16 experts (109 milliards de paramètres au total) et Maverick sur 128 experts (400 milliards au total). Le résultat : les modèles Llama 4 offrent des performances formidables – et le font avec des avantages uniques que même certains modèles fermés ne possèdent pas.

Par exemple, Llama 4 Scout se targue d’une fenêtre de contexte de 10 millions de jetons de premier plan, soit des ordres de grandeur au-delà de la plupart des rivaux. Cela signifie qu’il peut ingérer et raisonner sur des documents ou des bases de code vraiment massives en une seule fois. Malgré sa taille, Scout est suffisamment efficace pour s’exécuter sur une seule GPU H100 lorsqu’il est fortement quantifié, laissant entendre que les développeurs n’auront pas besoin d’un supercalculateur pour expérimenter avec lui.

Pendant ce temps, Llama 4 Maverick est réglé pour une puissance maximale. Les premiers tests montrent que Maverick égale ou bat les meilleurs modèles fermés en termes de raisonnement, de codage et de tâches de vision. En fait, Meta annonce déjà un plus grand frère, Llama 4 Behemoth, encore en formation, qui « surpasse GPT-4.5, Claude 3.7 Sonnet et Gemini 2.0 Pro sur plusieurs benchmarks STEM ». Le message est clair : les modèles ouverts ne sont plus de second ordre ; Llama 4 vise le statut de pointe.

De même, Meta a rendu Llama 4 immédiatement disponible pour téléchargement et utilisation. Les développeurs peuvent récupérer Scout et Maverick sur le site officiel ou Hugging Face sous la licence Llama 4 Community. Cela signifie que n’importe qui – d’un hacker de garage à une entreprise du Fortune 500 – peut se mettre sous le capot, affiner le modèle en fonction de ses besoins et le déployer sur son propre matériel ou dans le cloud. C’est un contraste frappant avec les offres propriétaires comme GPT-4o d’OpenAI ou Claude d’Anthropic, qui sont servies via des API payantes sans accès aux poids sous-jacents.

Meta souligne que l’ouverture de Llama 4 est destinée à autonomiser les utilisateurs : « Nous partageons les premiers modèles de la troupe Llama 4, qui permettront aux gens de créer des expériences multimodales plus personnalisées ». En d’autres termes, Llama 4 est un outil destiné à être entre les mains des développeurs et des chercheurs du monde entier. En publiant des modèles qui peuvent rivaliser avec ceux de GPT-4 et Claude en termes de capacité, Meta ranime l’idée que l’IA de pointe n’a pas besoin de vivre derrière un paywall.

(Source : Meta)

Idéalisme authentique ou jeu stratégique ?

Meta présente Llama 4 en termes grandioses, presque altruistes. « Notre modèle d’IA open source, Llama, a été téléchargé plus d’un milliard de fois », a annoncé récemment le PDG Mark Zuckerberg en ajoutant que « la mise en open source des modèles d’IA est essentielle pour garantir que les gens du monde entier aient accès aux avantages de l’IA ». Cette présentation peint Meta comme le porte-drapeau de l’IA démocratisée – une entreprise prête à partager ses modèles les plus précieux pour le bien commun. Et en effet, la popularité de la famille Llama soutient cela : les modèles ont été téléchargés à une échelle étonnante (passant de 650 millions à 1 milliard de téléchargements totaux en quelques mois), et ils sont déjà utilisés en production par des entreprises comme Spotify, AT&T et DoorDash.

Meta note avec fierté que les développeurs apprécient la « transparence, la personnalisation et la sécurité » d’avoir des modèles ouverts qu’ils peuvent exécuter eux-mêmes, ce qui « aide à atteindre de nouveaux niveaux de créativité et d’innovation », par rapport aux API noires. En principe, cela ressemble à l’ancien ethos du logiciel open source (pensez à Linux ou Apache) appliqué à l’IA – un gain incontestable pour la communauté.

Cependant, on ne peut ignorer le calcul stratégique derrière cette ouverture. Meta n’est pas une association caritative, et « open source » dans ce contexte comporte des restrictions. Notamment, Llama 4 est publié sous une licence communautaire spéciale, et non sous une licence permissive standard – donc, même si les poids du modèle sont gratuits, il y a des restrictions (par exemple, certaines utilisations à ressources élevées peuvent nécessiter une autorisation, et la licence est « propriétaire » dans le sens où elle est conçue par Meta). Ce n’est pas la définition d’open source de l’Open Source Initiative (OSI), ce qui a conduit certains critiques à affirmer que les entreprises utilisent abusivement le terme.

Dans la pratique, l’approche de Meta est souvent décrite comme « open-weight » ou « source-disponible » pour l’IA : le code et les poids sont ouverts, mais Meta conserve un certain contrôle et ne divulgue pas tout (par exemple, les données de formation). Cela n’enlève pas l’utilité pour les utilisateurs, mais cela montre que Meta est stratégiquement ouvert – en gardant suffisamment de rênes pour se protéger (et peut-être son avance concurrentielle). De nombreuses entreprises collent des étiquettes « open source » sur des modèles d’IA tout en retenant des détails clés, dénaturant l’esprit véritable de l’ouverture.

Pourquoi Meta ouvrirait-elle à tout ? Le paysage concurrentiel offre des indices. La publication de modèles puissants gratuitement peut rapidement construire une large base d’utilisateurs développeurs et entreprises – Mistral AI, une startup française, a fait exactement cela avec ses premiers modèles ouverts pour gagner en crédibilité en tant que laboratoire de pointe.

En semant le marché avec Llama, Meta garantit que sa technologie devient fondamentale dans l’écosystème de l’IA, ce qui peut rapporter des dividendes à long terme. C’est une stratégie classique d’embrassement et d’extension : si tout le monde utilise votre « modèle ouvert », vous fixez indirectement des normes et peut-être même dirigez les gens vers vos plateformes (par exemple, les produits d’assistant d’IA de Meta utilisent Llama). Il y a également un élément de relations publiques et de positionnement. Meta joue le rôle de l’innovateur bienveillant, surtout par rapport à OpenAI – qui a été critiqué pour son approche fermée. En fait, le changement de cœur d’OpenAI concernant les modèles ouverts souligne partiellement à quel point la démarche de Meta a été efficace.

Après l’émergence du modèle ouvert révolutionnaire chinois DeepSeek-R1 en janvier et qui a dépassé les modèles précédents, Altman a indiqué qu’OpenAI ne voulait pas être laissé du « mauvais côté de l’histoire ». Maintenant, OpenAI promet un modèle ouvert avec de fortes capacités de raisonnement à l’avenir, marquant un changement d’attitude. Il est difficile de ne pas voir l’influence de Meta dans ce changement. La posture open source de Meta est à la fois authentique et stratégique : elle élargit réellement l’accès à l’IA, mais c’est également un coup habile pour déborder les rivaux et façonner l’avenir du marché selon les termes de Meta.

Implications pour les développeurs, les entreprises et l’avenir de l’IA

Pour les développeurs, la résurgence de modèles ouverts comme Llama 4 est un vent d’air frais. Au lieu d’être verrouillés dans un écosystème unique et des frais, ils ont maintenant l’option d’exécuter une IA puissante sur leur propre infrastructure ou de la personnaliser librement.

C’est un énorme avantage pour les entreprises dans des secteurs sensibles – pensez à la finance, aux soins de santé ou au gouvernement – qui sont méfiantes à l’idée de nourrir des données confidentielles dans la boîte noire de quelqu’un d’autre. Avec Llama 4, une banque ou un hôpital pourrait déployer un modèle de langage de pointe derrière leur propre pare-feu, le réglant sur des données privées, sans partager un seul jeton avec une entité extérieure. Il y a également un avantage en termes de coûts. Alors que les frais d’utilisation basés sur les API pour les meilleurs modèles peuvent exploser, un modèle ouvert n’a pas de frais d’utilisation – vous ne payez que pour la puissance de calcul nécessaire pour l’exécuter. Les entreprises qui augmentent les charges de travail d’IA lourdes peuvent économiser considérablement en optant pour une solution ouverte qu’elles peuvent mettre à l’échelle en interne.

Ce n’est pas étonnant que nous voyions un intérêt croissant pour les modèles ouverts de la part des entreprises ; beaucoup ont commencé à réaliser que le contrôle et la sécurité de l’IA open source correspondent mieux à leurs besoins qu’à des services fermés tout usage.

Les développeurs, eux aussi, bénéficient d’avantages en termes d’innovation. Avec l’accès aux internes du modèle, ils peuvent affiner et améliorer l’IA pour des domaines de niche (droit, biotechnologie, langues régionales – vous nommez) de manière qu’une API fermée pourrait ne jamais répondre. L’explosion de projets communautaires autour des modèles Llama précédents – des chatbots affinés sur des connaissances médicales à des applications smartphone amateur exécutant des versions miniatures – a prouvé comment les modèles ouverts peuvent démocratiser l’expérimentation.

Cependant, la renaissance des modèles ouverts soulève également des questions difficiles. La « démocratisation » se produit-elle vraiment si seuls ceux qui disposent de ressources informatiques importantes peuvent exécuter un modèle à 400 milliards de paramètres ? Alors que Llama 4 Scout et Maverick abaissent la barre matérielle par rapport aux modèles monolithiques, ils sont toujours lourds – un point qui n’échappe pas à certains développeurs dont les PC ne peuvent pas les gérer sans aide cloud.

L’espoir est que des techniques comme la compression de modèle, la distillation ou des variantes d’experts plus petites feront couler le pouvoir de Llama 4 vers des tailles plus accessibles. Une autre préoccupation est la mauvaise utilisation. OpenAI et d’autres ont longtemps soutenu que la publication de modèles puissants ouverts pourrait permettre à des acteurs malveillants (pour générer de la désinformation, du code de malware, etc.).

Ces préoccupations persistent : un modèle ouvert Claude ou GPT pourrait être mal utilisé sans les filtres de sécurité que les entreprises appliquent sur leurs API. En revanche, les partisans soutiennent que l’ouverture permet à la communauté d’identifier et de corriger les problèmes, rendant les modèles plus robustes et transparents avec le temps que tout système secret. Il y a des preuves que les communautés de modèles ouverts prennent la sécurité au sérieux, en élaborant leurs propres garde-fous et en partageant les meilleures pratiques – mais c’est une tension continue.

Ce qui est de plus en plus clair, c’est que nous nous dirigeons vers un paysage hybride de l’IA où les modèles ouverts et fermés coexistent, chacun influençant l’autre. Les fournisseurs fermés comme OpenAI, Anthropic et Google détiennent toujours une longueur d’avance en termes de performances absolues – pour l’instant. En effet, à la fin de 2024, des recherches suggéraient que les modèles ouverts traînaient d’environ un an derrière les meilleurs modèles fermés en termes de capacité. Mais cet écart se réduit rapidement.

Aujourd’hui, sur le marché, « l’IA open source » ne signifie plus seulement des projets de hobby ou des modèles anciens – c’est maintenant au cœur de la stratégie d’IA pour les géants de la technologie et les startups. Le lancement de Llama 4 de Meta est un rappel puissant de la valeur évolutive de l’ouverture. C’est à la fois une prise de position philosophique pour la démocratisation de la technologie et une manœuvre tactique dans une bataille industrielle à hauts enjeux. Pour les développeurs et les entreprises, cela ouvre de nouvelles portes à l’innovation et à l’autonomie, même s’il complique les décisions avec de nouveaux compromis. Et pour l’écosystème plus large, cela soulève l’espoir que les avantages de l’IA ne seront pas verrouillés entre les mains de quelques corporations – si l’éthique open source peut tenir son terrain.

Alex McFarland est un journaliste et écrivain en intelligence artificielle qui explore les derniers développements en intelligence artificielle. Il a collaboré avec de nombreuses startups et publications en intelligence artificielle dans le monde entier.