Suivez nous sur

Pourquoi le « meilleur LLM en marketing » n'existe pas

Des leaders d'opinion

Pourquoi le « meilleur LLM en marketing » n'existe pas

mm

Chaque nouvelle version d'un modèle de langage majeur arrive avec les mĂŞmes promesses : des fenĂŞtres de contexte plus larges, un raisonnement plus robuste et des performances de rĂ©fĂ©rence amĂ©liorĂ©es. Mais très vite, les spĂ©cialistes du marketing fĂ©rus d'IA ressentent une angoisse dĂ©sormais familière. Le modèle qu'ils utilisent pour tout est-il dĂ©jĂ  dĂ©passĂ© ? Vaut-il la peine de changer et de tout rĂ©entraĂ®ner ? Et s'ils ne font rien et se retrouvent Ă  la traĂ®ne ?

Cette anxiété est compréhensible. Elle est aussi injustifiée.

En tant que responsable de la conception des systèmes sur lesquels les spécialistes du marketing s'appuient au quotidien, je constate que ce schéma se répète au sein des équipes et des flux de travail bien avant qu'il ne fasse la une des journaux.

Du point de vue des produits et des plateformes, une Ă©vidence s'est imposĂ©e ces dernières annĂ©es : il n'existe pas de modèle unique qui soit systĂ©matiquement le plus performant pour toutes les tâches marketing. Observer de près des centaines d'Ă©quipes marketing lancer des campagnes mondiales… Le rythme de l'innovation des modèles s'accĂ©lèreIl est clair que les exigences du travail marketing dans le monde rĂ©el sont trop nuancĂ©es pour qu'une stratĂ©gie Ă  modèle unique puisse se maintenir dans le temps.

Choisir le « bon » modèle importe peu, car aucun modèle n'est universel. L'essentiel est de concevoir des systèmes capables d'évaluer en continu les modèles et de les adapter aux tâches spécifiques des équipes marketing. Cette gestion ne devrait pas incomber aux équipes marketing elles-mêmes, mais être assurée par leurs outils. En résumé, il est important de ne plus se demander quel modèle est le « meilleur », mais plutôt de s'assurer que vos outils peuvent s'adapter à l'évolution des modèles.

Pourquoi le raisonnement basé sur le « meilleur modèle » est inefficace en marketing

La plupart des dĂ©bats publics sur les LLM s'articulent autour de critères d'Ă©valuation gĂ©nĂ©raux : problèmes de mathĂ©matiques, exercices de raisonnement, examens standardisĂ©s. Ces critères sont utiles pour Ă©valuer les progrès de la recherche, mais ils prĂ©disent mal la performance dans des situations concrètes.

Le contenu marketing, en particulier, possède des caractĂ©ristiques que les indicateurs de performance gĂ©nĂ©riques saisissent rarement :

  • Il s'agit toujours d'un produit ou d'un service spĂ©cifique.
  • Il est toujours Ă©crit pour un public dĂ©fini
  • Elle doit reflĂ©ter de manière cohĂ©rente la voix, le ton et les normes de la marque.

Par exemple, nous constatons régulièrement que différents modèles excellent dans différents types de tâches marketing. Certains sont plus performants pour créer des contenus respectant l'identité de votre marque, tandis que d'autres sont plus à l'aise pour comprendre des documents techniques complexes et les synthétiser en articles de blog. Nous tirons ces conclusions de tests rigoureux, car les nouvelles fonctionnalités ne sont pertinentes que si elles sont évaluées rapidement et de manière réaliste. Ainsi, par exemple, lors du lancement de Gemini 3 Pro fin novembre 2025, notre équipe intégré et testé Dans les 24 heures, nous l'avons ensuite mis à la disposition d'une sélection de clients afin d'évaluer son adéquation aux flux de travail marketing réels plutôt qu'à des points de référence abstraits.

Ce constat n'est pas anecdotique. Les recherches montrent de plus en plus que les performances des modèles LLM dépendent fortement de la tâche, avec des modèles spécifiques. présentant une variance significative Les performances s'étendent aux tâches d'écriture, de résumé, de raisonnement et de suivi d'instructions. Un modèle performant aux tests de raisonnement général peut néanmoins éprouver des difficultés avec la génération de contenu contraint et sensible à la marque.

Plus important encore, nous constatons ces changements de mois en mois. Changements de leadership du modèle Les fournisseurs optimisent leurs services en fonction de leurs capacités, de leurs structures de coûts et de leurs approches de formation. L'idée qu'un fournisseur puisse rester le « meilleur » pour tous les cas d'usage marketing est désormais dépassée.

Les coûts cachés de la course aux sorties

Lorsque les Ă©quipes tentent de suivre manuellement les lancements de modèles et de changer d'outils au grĂ© des circonstances, les coĂ»ts opĂ©rationnels s'accumulent. Les responsables marketing constatent :

  • Perturbation du flux de travail car les invites, les modèles et les processus nĂ©cessitent une adaptation constante
  • QualitĂ© de sortie incohĂ©rente car les diffĂ©rents modèles se comportent diffĂ©remment selon les tâches
  • La fatigue dĂ©cisionnelle est due au fait que le temps d'Ă©valuation remplace le travail productif.

J'ai vu des équipes marketing passer des trimestres entiers à migrer d'un fournisseur à un autre, pour finalement constater que leurs invites soigneusement paramétrées ne fonctionnent plus comme prévu. Le contenu, auparavant cohérent avec l'image de marque, paraît soudainement différent. Les membres de l'équipe, qui venaient de maîtriser un flux de travail, doivent désormais s'adapter à un nouvel outil. Les gains de performance promis se concrétisent rarement de manière à justifier les perturbations.

Les études sectorielles montrent systématiquement que la majeure partie de la valeur de l'IA est perdue non pas au niveau du modèle, mais lors de l'intégration et de la gestion du changement. Du point de vue du produit, le principal risque est de trop lier les flux de travail à un seul modèle. Cela crée un verrouillage technique, ce qui rend l'amélioration plus difficile avec le temps.

Une approche plus durable : les systèmes optimisĂ©s LLM

Une approche plus résiliente consiste à anticiper la volatilité, puis à concevoir en conséquence.

Dans un système optimisé par LLM, les modèles sont considérés comme des composants interchangeables et non comme des dépendances fixes. Les performances sont évaluées en continu à l'aide de flux de travail réels, et non de benchmarks abstraits. Différents modèles peuvent être affectés à différentes tâches en fonction des résultats observés plutôt que de leurs capacités théoriques.

Cela pourrait impliquer d'attribuer la génération de légendes pour les réseaux sociaux à un modèle privilégiant la concision et l'impact, tandis que la rédaction de longs articles de blog serait confiée à un autre modèle garantissant une cohérence sur des milliers de mots. L'agent chargé de l'élaboration de la stratégie pourrait quant à lui utiliser un troisième modèle, plus performant en matière de raisonnement. Le système prend automatiquement ces décisions d'attribution en fonction du modèle ayant obtenu les meilleurs résultats lors des tests pour chaque type de tâche.

Du point de vue de l'utilisateur, ce processus doit ĂŞtre transparent. J'aime utiliser une analogie : dans la cuisine française, chaque Ă©lĂ©ment – ​​sauce, rĂ©duction, assaisonnement – ​​repose sur une technique. Le convive n'a pas besoin de connaĂ®tre la provenance de chaque ingrĂ©dient. Il profite simplement d'un meilleur repas.

Pour les spécialistes du marketing, le même principe s'applique. Le système sous-jacent peut évoluer tandis que les flux de travail restent stables. Les améliorations se manifestent progressivement par une meilleure cohérence de la marque, une satisfaction accrue du contenu et des résultats plus constants, sans que les équipes aient à se familiariser à nouveau avec les outils tous les deux ou trois mois. Concrètement, cela signifie que les spécialistes du marketing obtiennent des résultats plus constants et subissent moins de perturbations dans leurs flux de travail, même lorsque les modèles sous-jacents évoluent.

Pourquoi la mesure est plus importante que les points de référence

Les dĂ©cisions relatives aux modèles n'ont d'importance que si elles produisent des amĂ©liorations mesurables dans les flux de travail rĂ©els. Les benchmarks publics fournissent des indications gĂ©nĂ©rales, mais ne rĂ©pondent pas aux questions opĂ©rationnelles spĂ©cifiques au marketing, telles que :

  • Ce modèle permet-il de mieux reflĂ©ter l'image de marque ?
  • Permet-il d'intĂ©grer les connaissances sur le produit avec moins d'erreurs ?
  • Cela permet-il de rĂ©duire le temps d'Ă©dition ou les goulots d'Ă©tranglement en matière de gouvernance ?

Des recherches récentes soulignent l'importance de l'évaluation avec intervention humaine et des tests spécifiques à la tâche pour les systèmes LLM appliqués. À grande échelle, ces signaux sont bien plus prédictifs de la valeur que les classements.

Le changement d'agentivité fait monter les enjeux

À mesure que les systèmes d'IA deviennent plus autonomesAvec la planification, la rédaction, l'itération et l'exécution réalisées avec une supervision moins directe, l'importance du choix du modèle sous-jacent s'accroît. Parallèlement, il devient moins réalisable pour les humains de superviser chaque décision.

Ceci fait écho aux recherches actuelles sur les systèmes multi-agents, qui soulignent l'impact significatif du choix des outils et des modèles sur la fiabilité et la sécurité. Dans ce contexte, la sélection du modèle relève de l'infrastructure et non des préférences de l'utilisateur. Le système doit garantir que chaque composant d'un flux de travail est piloté par le modèle le plus adapté à un instant donné, en se basant sur les performances observées plutôt que sur les habitudes.

Absorber le changement au lieu d'y réagir

Les gros titres continueront d'affluer, de nouveaux modèles continueront d'être lancés et le leadership en matière de performance LLM continuera d'évoluer.

La réussite repose sur la mise en place de systèmes capables d'absorber la volatilité des modèles plutôt que de réagir à chaque nouvelle version le plus rapidement possible. C'est ainsi que les spécialistes du marketing peuvent rapidement adapter leurs activités, maintenir la qualité et la cohérence de la marque, et rester concentrés sur les actions qui génèrent un réel impact.

Je suis convaincu que l'avenir de l'IA en marketing réside dans sa capacité à rendre les changements de modèles superflus pour les personnes qui les mettent en œuvre. Après tout, les spécialistes du marketing ont bien d'autres priorités que de réentraîner des modèles tous les six mois.

Bryan Tsao est directeur des produits chez JasperJasper, la plateforme d'agents marketing, où il dirige les équipes Produit, Ingénierie, Croissance et Données. Avant de rejoindre Jasper, il a occupé des postes de direction, notamment celui de vice-président Croissance et Données chez Dropbox, de vice-président Produit et Design chez Namely et de vice-président Produit, Design et Données chez Mattermark. Il est titulaire d'un master en systèmes de gestion de l'information de l'Université de Californie à Berkeley et d'une licence en sciences cognitives de l'Université de Californie à San Diego.