Connect with us

Leaders d’opinion

Le MemPalace de Milla Jovovich vise à résoudre le problème de mémoire de l’IA

mm
A woman standing in a luminous, neoclassical hallway, interacting with glowing holographic data structures representing a

Des millions de personnes ouvrent une fenêtre de chat chaque jour et commencent à s’expliquer à l’intelligence artificielle (IA). Elle écoute attentivement, génère instantanément une réponse qui sonne intelligente, et puis, lorsque la session se termine, oublie chaque détail de l’interaction.

L’échelle de ce rituel est stupéfiante. ChatGPT seul gère plus de un milliard de requêtes par jour, avec plus de 800 millions d’utilisateurs actifs par semaine à la fin de 2025. L’adoption de l’IA générative a atteint plus de 16 % de la population mondiale, un nombre qui n’existait pas de manière significative il y a trois ans.

Une énorme infrastructure avec un coût environnemental croissant soutient ce modèle : les centres de données américains ont consommé 183 térawatt-heures d’électricité en 2024, plus de 4 % de la consommation totale du pays, ou environ équivalent à la demande d’électricité annuelle du Pakistan.

En raison du manque de mémoire des systèmes d’IA, une grande partie de cette énergie est consacrée à rétablir le contexte. Les explications répétées, les réintroductions de projets et les décharges de contexte au début de chaque session sont des calculs gaspillés.

La mémoire est ce qui transforme un outil en collaborateur

Les assistants d’IA n’ont pas de mémoire persistante par défaut. Cela n’aurait pas d’importance si nous utilisions l’IA comme une calculatrice : saisir un nombre, obtenir un résultat, passer à autre chose.

Mais la plupart des gens ne l’utilisent plus de cette façon. Ils ont des conversations longues, itératives, profondément contextuelles avec l’IA – construisant des choses sur plusieurs semaines ou mois, développant un langage partagé, des décisions et une histoire. La quantité de contexte que l’IA peut avoir à l’esprit à tout moment peut varier en fonction du niveau d’abonnement.

Jusqu’à présent, l’IA s’est avérée être un outil merveilleux, mais depuis les premières étapes de développement, elle a visé à être considérée comme un compagnon. Cette ambition nécessite de la mémoire. Sans cela, le progrès continuera à réinitialiser.

La mémoire persistante change ce que l’IA peut faire dans la pratique. Un développeur obtient un IA qui retient les décisions architecturales et les raisons qui les sous-tendent. Une équipe obtient un IA qui connaît l’historique du projet sans avoir à être rébriefée. Un écrivain obtient un IA qui a accumulé des connaissances sur son travail au fil du temps. La capacité du modèle est moins importante que sa capacité à accumuler réellement des connaissances sur la personne qui l’utilise.

Pourquoi cela a-t-il été difficile à résoudre

Le défi n’est pas seulement le stockage mais la récupération. En théorie, vous pouvez alimenter chaque conversation passée dans une nouvelle session. Mais cela devient rapidement absurde sur le plan computationnel. Les fenêtres de contexte, bien que s’élargissant, ne sont pas infinies. Décharger des mois de conversation non structurée dans une invite n’est pas seulement inefficace, mais également chronophage et énergivore.

Paras Pandey, un ingénieur de données, expose clairement la difficulté : “La mémoire de l’IA est vraiment un problème de fidélité de récupération déguisé en problème de stockage. Vous pouvez persister n’importe quoi, la partie difficile est de récupérer la bonne tranche à l’heure de l’inférence sans halluciner les lacunes. C’est une version plus difficile de ce que nous avons résolu dans les systèmes de données pendant des années, et le domaine est encore en développement.”

Les approches actuelles de mémoire d’IA impliquent de laisser les systèmes décider de ce qui vaut la peine d’être mémorisé. Mais laisser l’IA décider de ce qui est important jette souvent exactement le type de contexte nuancé qui rendait l’échange d’origine précieux. Vous gardez l’idée générale, mais perdez toute la conversation où vous avez expliqué vos préoccupations spécifiques, et les alternatives que vous avez considérées et rejetées.

Le scénario idéal serait de rendre les bonnes informations accessibles au bon moment.

Entrée de MemPalace

C’est précisément le problème que MemPalace , un projet open-source récemment publié, vise à résoudre. Plutôt que de résumer ou de jeter, il stocke les conversations en entier et construit une structure navigable autour d’elles, s’inspirant de la technique grecque ancienne de la mémoire du palais, où les orateurs placeraient mentalement des idées dans des pièces spécifiques d’un bâtiment imaginaire pour les rappeler plus tard.

Ce qui rend MemPalace notable n’est pas seulement l’élégance de l’approche. Ce sont les résultats. Dans les benchmarks académiques standard pour la récupération de mémoire d’IA, MemPalace a affiché les scores les plus élevés jamais publiés pour un système gratuit, et ce, tout en fonctionnant entièrement sur votre machine, sans abonnement, sans dépendance au cloud et sans API externe requise.

Les services commerciaux concurrents facturent entre 20 et 250 dollars par mois pour des fonctionnalités comparables, et souvent moins performantes.

Cette combinaison de performances de classe mondiale, entièrement locale et complètement gratuite est suffisamment inhabituelle pour mériter l’attention. Et parce qu’il s’exécute sur votre matériel plutôt que sur des serveurs distants, chaque requête que vous acheminez via MemPalace est une requête qui ne contribue pas au registre énergétique gonflé de l’industrie des centres de données.

L’image plus large

MemPalace est un projet, mais il pointe vers quelque chose de plus grand : la reconnaissance que la mémoire persistante n’est pas un ajout premium aux systèmes d’IA, c’est une réalisation fondamentale pour les nouveaux cas d’utilisation de l’IA.

Le projet a été construit par une petite équipe, Milla Jovovich (Oui, l’actrice de Resident Evil), Ben Sigman et Claude, et est répertorié comme ayant seulement sept validations.

Le fait qu’un système surpassant les produits commerciaux avec des équipes d’ingénieurs dédiées provienne d’un effort aussi mince dit quelque chose sur où se trouve la véritable difficulté.

Le problème n’était pas les ordinateurs ou les ressources. C’était un modèle plus clair de ce dont la mémoire a réellement besoin.

Juan Pablo Aguirre Osorio est un reporter contributif pour Espacio Media Incubator. Avec une formation en ingénierie full-stack, Juan Pablo apporte une formation technique à ses reportages sur les technologies de pointe, notamment l'IA. Ses travaux ont été présentés sur HackerNoon, The Sociable, et d'autres, et il était précédemment ambassadeur étudiant chez Microsoft.