Connect with us

Opinion

La limite de mémoire de ChatGPT est frustrante — Le cerveau montre une meilleure façon

mm

Si vous êtes un utilisateur avancé de ChatGPT, vous avez peut-être récemment rencontré l’écran redouté « Mémoire pleine ». Ce message apparaît lorsque vous atteignez la limite des mémoires enregistrées de ChatGPT, et cela peut constituer un obstacle important lors de projets à long terme. La mémoire est censée être une fonction clé pour les tâches complexes et continues – vous voulez que votre IA conserve les connaissances des sessions précédentes pour les sorties futures. Voir un avertissement de mémoire pleine au milieu d’un projet sensible au temps (par exemple, pendant que je dépannais des erreurs de serveur HTTP 502 persistantes sur l’un de nos sites sœurs) peut être extrêmement frustrant et perturbateur.

La frustration avec la limite de mémoire de ChatGPT

Le problème fondamental n’est pas que une limite de mémoire existe – même les utilisateurs de ChatGPT Plus payants peuvent comprendre qu’il peut y avoir des limites pratiques à la quantité de données qui peuvent être stockées. Le véritable problème est comment vous devez gérer les anciennes mémoires une fois la limite atteinte. L’interface actuelle pour la gestion de la mémoire est fastidieuse et chronophage. Lorsque ChatGPT vous informe que votre mémoire est pleine à 100 %, vous avez deux options : supprimer les mémoires une par une de manière fastidieuse, ou les effacer toutes d’un coup. Il n’y a pas d’option intermédiaire ou d’outil de sélection en bloc pour élaguer efficacement les informations stockées.

Supprimer une mémoire à la fois, en particulier si vous devez le faire tous les quelques jours, ressemble à une corvée qui n’est pas propice à une utilisation à long terme. Après tout, la plupart des mémoires enregistrées l’ont été pour une raison – elles contiennent un contexte précieux que vous avez fourni à ChatGPT sur vos besoins ou votre entreprise. Naturellement, vous préféreriez supprimer le minimum de éléments nécessaires pour libérer de l’espace, afin de ne pas handicaper la compréhension de l’IA de votre historique. Pourtant, la conception de la gestion de la mémoire impose une approche tout ou rien ou une curation manuelle lente. J’ai personnellement observé que chaque mémoire supprimée ne libère qu’environ 1% de l’espace mémoire, suggérant que le système n’autorise qu’environ 100 mémoires au total avant qu’il soit plein (100 % d’utilisation). Cette limite stricte semble arbitraire étant donné l’échelle des systèmes d’IA modernes, et elle sous-estime la promesse de ChatGPT de devenir un assistant knowledgeable qui grandit avec vous au fil du temps.

Ce qui devrait se passer

Compte tenu que ChatGPT et l’infrastructure derrière lui ont accès à des ressources computationnelles quasi illimitées, il est surprenant que la solution pour la mémoire à long terme soit si rudimentaire. Idéalement, les mémoires à long terme de l’IA devraient mieux reproduire la façon dont le cerveau humain fonctionne et gère l’information au fil du temps. Les cerveaux humains ont évolué des stratégies efficaces pour gérer les mémoires – nous n’enregistrons pas simplement chaque événement mot pour mot et le stockons indéfiniment. Au lieu de cela, le cerveau est conçu pour l’efficacité : nous retenons des informations détaillées à court terme, puis les consolidons et compressons ces détails en mémoire à long terme.

En neurosciences, la consolidation de la mémoire fait référence au processus par lequel des mémoires à court terme instables sont transformées en mémoires stables et durables. Selon le modèle standard de consolidation, de nouvelles expériences sont initialement encodées par l’hippocampe, une région du cerveau cruciale pour la formation de mémoires épisodiques, et au fil du temps, les connaissances sont « entraînées » dans le cortex pour un stockage permanent. Ce processus ne se produit pas instantanément – il nécessite le passage du temps et souvent se produit pendant les périodes de repos ou de sommeil. L’hippocampe agit essentiellement comme un tampon d’apprentissage rapide, tandis que le cortex intègre progressivement les informations dans une forme plus durable à travers des réseaux neuronaux étendus. En d’autres termes, la « mémoire à court terme » du cerveau (mémoire de travail et expériences récentes) est systématiquement transférée et réorganisée en un magasin de mémoire à long terme distribué. Ce transfert en plusieurs étapes rend la mémoire plus résistante à l’interférence ou à l’oubli, similaire à la stabilisation d’un enregistrement pour qu’il ne soit pas facilement écrasé.

De manière cruciale, le cerveau humain ne gaspille pas les ressources en stockant chaque détail verbatim. Au lieu de cela, il tend à filtrer les détails triviaux et à retenir ce qui est le plus significatif de nos expériences. Les psychologues ont longtemps noté que lorsque nous rappelons un événement passé ou des informations apprises, nous nous souvenons généralement de l’essence de l’événement plutôt que d’un compte rendu mot pour mot parfait. Par exemple, après avoir lu un livre ou regardé un film, vous vous souviendrez des points de l’intrigue principaux et des thèmes, mais pas de chaque ligne de dialogue. Au fil du temps, les détails exacts et les minutes de l’expérience s’estompent, laissant derrière eux un résumé plus abstrait de ce qui s’est passé. En fait, des recherches montrent que notre mémoire verbatim (détails précis) s’estompe plus rapidement que notre mémoire de l’essence (signification générale) au fil du temps. C’est une façon efficace de stocker les connaissances : en éliminant les détails superflus, le cerveau « compressé » les informations, conservant les parties essentielles qui sont susceptibles d’être utiles à l’avenir.

Cette compression neuronale peut être comparée à la façon dont les ordinateurs compressent les fichiers, et en effet, les scientifiques ont observé des processus analogues dans le cerveau. Lorsque nous répétons mentalement une mémoire ou imaginons un scénario futur, la représentation neuronale est effectivement accélérée et dépouillée de certains détails – c’est une version compressée de l’expérience réelle. Des neuroscientifiques à UT Austin ont découvert un mécanisme d’onde cérébrale qui nous permet de rappeler une séquence entière d’événements (disons, un après-midi passé au supermarché) en quelques secondes en utilisant un rythme cérébral plus rapide qui encode des informations moins détaillées et de niveau supérieur. En essence, nos cerveaux peuvent accélérer la lecture des mémoires, conservant le plan et les points clés tout en omettant les détails riches, qui seraient inutiles ou trop volumineux pour être répétés en entier. La conséquence est que les plans imaginés et les expériences rappelées sont stockés sous une forme condensée – toujours utiles et compréhensibles, mais beaucoup plus efficaces en termes d’espace et de temps que l’expérience originale.

Un autre aspect important de la gestion de la mémoire humaine est la priorisation. Tout ce qui entre dans la mémoire à court terme ne se retrouve pas immortalisé dans le stockage à long terme. Nos cerveaux décident subconsciemment de ce qui vaut la peine d’être rappelé et de ce qui ne l’est pas, en fonction de la signification ou de la pertinence émotionnelle. Une étude récente à l’Université Rockefeller a démontré ce principe en utilisant des souris : les souris ont été exposées à plusieurs résultats dans un labyrinthe (certains très gratifiants, certains légèrement gratifiants, certains négatifs). Initialement, les souris ont appris toutes les associations, mais lorsqu’elles ont été testées un mois plus tard, seule la mémoire la plus saillante à haute récompense a été conservée, tandis que les détails moins importants avaient disparu.

En d’autres termes, le cerveau a filtré le bruit et conservé la mémoire qui importait le plus aux objectifs de l’animal. Les chercheurs ont même identifié une région du cerveau, le thalamus antérieur, qui agit comme une sorte de modérateur entre l’hippocampe et le cortex pendant la consolidation, signalant lesquelles des mémoires sont suffisamment importantes pour être « sauvegardées » à long terme. Le thalamus semble envoyer un renforcement continu pour les mémoires précieuses – essentiellement en disant au cortex « conservez celle-ci » jusqu’à ce que la mémoire soit entièrement encodée – tandis que les mémoires moins importantes s’estompent. Cette découverte souligne que l’oubli n’est pas seulement un échec de la mémoire, mais une fonction active du système : en laissant aller les informations triviales ou redondantes, le cerveau empêche son stockage de mémoire d’être encombré et garantit que les connaissances les plus utiles soient facilement accessibles.

Réévaluation de la mémoire de l’IA avec des principes humains

La façon dont le cerveau humain gère la mémoire offre un plan clair pour la façon dont ChatGPT et des systèmes d’IA similaires devraient gérer les informations à long terme. Au lieu de traiter chaque mémoire enregistrée comme un point de données isolé qui doit être conservé pour toujours ou supprimé manuellement, une IA pourrait consolider et résumer les anciennes mémoires en arrière-plan. Par exemple, si vous avez dix conversations ou faits liés enregistrés sur votre projet en cours, l’IA pourrait automatiquement les fusionner en un résumé concis ou un ensemble de conclusions clés – compressant efficacement la mémoire tout en préservant son essence, à la manière dont le cerveau condense les détails en essence. Cela libérerait de l’espace pour de nouvelles informations sans vraiment « oublier » ce qui était important dans les anciennes interactions. En effet, la documentation de OpenAI suggère que les modèles de ChatGPT peuvent déjà effectuer une mise à jour automatique et une combinaison de détails enregistrés, mais l’expérience utilisateur actuelle suggère qu’il n’est pas encore fluide ou suffisant.

Une autre amélioration inspirée de l’humain serait la rétention de mémoire priorisée. Au lieu d’une limite rigide de 100 éléments, l’IA pourrait peser lesquelles des mémoires ont été les plus fréquemment pertinentes ou les plus critiques pour les besoins de l’utilisateur, et ne supprimer (ou échantillonner à faible résolution) que celles qui semblent les moins importantes. Dans la pratique, cela pourrait signifier que ChatGPT identifie que certains faits (par exemple, les objectifs principaux de votre entreprise, les spécifications du projet en cours, les préférences personnelles) sont très saillants et devraient toujours être conservés, tandis que des éléments de curiosité ponctuels de plusieurs mois pourraient être archivés ou supprimés en premier. Cette approche dynamique est parallèle à la façon dont le cerveau élague continuellement les connexions inutilisées et renforce les connexions fréquemment utilisées pour optimiser l’efficacité cognitive.

Le point clé est qu’un système de mémoire à long terme pour l’IA devrait évoluer, et non simplement se remplir et s’arrêter. La mémoire humaine est remarquablement adaptable – elle se transforme et se réorganise avec le temps, et elle n’attend pas qu’un utilisateur externe gère chaque emplacement de mémoire. Si la mémoire de ChatGPT fonctionnait plus comme la nôtre, les utilisateurs ne seraient pas confrontés à un mur abrupt à 100 entrées, ni au choix douloureux entre tout effacer ou cliquer à travers cent éléments un par un. Au lieu de cela, les anciennes mémoires de chat se transformeraient progressivement en une base de connaissances distillée que l’IA peut puiser, et seules les pièces véritablement obsolètes ou non pertinentes disparaîtraient. La communauté de l’IA, qui est le public cible ici, peut apprécier que la mise en œuvre d’un tel système pourrait impliquer des techniques comme la synthèse de contexte, les bases de données vectorielles pour la récupération de connaissances, ou les couches de mémoire hiérarchiques dans les réseaux de neurones – tous des domaines de recherche actifs. En fait, donner à l’IA une forme de « mémoire épisodique » qui se compressé au fil du temps est un défi connu, et le résoudre serait un bond en avant vers l’IA qui apprend de manière continue et fait évoluer son stock de connaissances de manière durable.

Conclusion

La limitation actuelle de mémoire de ChatGPT ressemble à une solution provisoire qui n’exploite pas pleinement le pouvoir de l’IA. En regardant la cognition humaine, nous voyons que la mémoire à long terme efficace ne consiste pas à stocker des données brutes illimitées – il s’agit de compression, de consolidation et d’oubli intelligent des bonnes choses. La capacité du cerveau humain à retenir ce qui compte tout en économisant sur le stockage est précisément ce qui rend notre mémoire à long terme si vaste et utile. Pour que l’IA devienne un véritable partenaire à long terme, elle devrait adopter une stratégie similaire : distiller automatiquement les interactions passées en insights durables, plutôt que de décharger cette charge sur l’utilisateur. La frustration de heurter un mur de « mémoire pleine » pourrait être remplacée par un système qui grandit avec grâce à l’utilisation, apprenant et se souvenant d’une façon flexible et humaine. L’adoption de ces principes ne résoudrait pas seulement le point de douleur de l’expérience utilisateur, mais débloquerait également une expérience d’IA plus puissante et personnalisée pour l’ensemble de la communauté d’utilisateurs et de développeurs qui s’appuient sur ces outils.

Antoine est un leader visionnaire et partenaire fondateur de Unite.AI, animé par une passion inébranlable pour façonner et promouvoir l'avenir de l'IA et de la robotique. Un entrepreneur en série, il croit que l'IA sera aussi perturbatrice pour la société que l'électricité, et se fait souvent prendre en train de vanter le potentiel des technologies perturbatrices et de l'AGI.
En tant que futurist, il se consacre à explorer comment ces innovations vont façonner notre monde. En outre, il est le fondateur de Securities.io, une plateforme axée sur l'investissement dans les technologies de pointe qui redéfinissent l'avenir et remodelent des secteurs entiers.