Suivez nous sur

Intelligence artificielle

Apprentissage sur appareil tout au long de la vie avec une nouvelle technique de formation

Le kit de préparation mis à jour on
Laboratoire d'IA Watson du MIT/MIT-IBM

Une équipe de chercheurs du MIT et du MIT-IBM Watson AI Lab a développé une nouvelle technique qui permet une formation sur appareil en utilisant moins d'un quart de mégaoctet de mémoire. Le nouveau développement est une réalisation impressionnante car les autres solutions de formation nécessitent généralement plus de 500 mégaoctets de mémoire, ce qui dépasse la capacité de 256 kilooctets de la plupart des microcontrôleurs. 

En formant un modèle d'apprentissage automatique sur un appareil de périphérie intelligent, il peut s'adapter aux nouvelles données et faire de meilleures prédictions. Cela dit, le processus de formation nécessite généralement beaucoup de mémoire, il est donc souvent effectué avec des ordinateurs dans un centre de données avant que le modèle ne soit déployé sur un appareil. Ce processus est beaucoup plus coûteux et soulève des problèmes de confidentialité par rapport à la nouvelle technique développée par l'équipe.

Les chercheurs ont développé les algorithmes et le cadre de manière à réduire la quantité de calculs nécessaires pour former un modèle, ce qui rend le processus plus rapide et plus efficace en termes de mémoire. La technique peut aider à former un modèle d'apprentissage automatique sur un microcontrôleur en quelques minutes seulement. 

La nouvelle technique contribue également à la confidentialité car elle conserve les données sur l'appareil, ce qui est important lorsque des données sensibles sont impliquées. Dans le même temps, le cadre améliore la précision du modèle par rapport à d'autres approches. 

Song Han est professeur agrégé au Département de génie électrique et d'informatique (EECS), membre du MIT-IBM Watson AI Lab et auteur principal du document de recherche. 

"Notre étude permet aux appareils IoT non seulement d'effectuer des inférences, mais également de mettre à jour en permanence les modèles d'IA en fonction des données nouvellement collectées, ouvrant la voie à un apprentissage permanent sur l'appareil", a déclaré Han. "La faible utilisation des ressources rend l'apprentissage en profondeur plus accessible et peut avoir une portée plus large, en particulier pour les appareils de périphérie à faible consommation." 

Le papier comprenaient les co-auteurs principaux et les doctorants EECS Ji Lin et Ligeng Zhu, et les post-doctorants du MIT Wei-Ming Chen et Wei-Chen Wang. Il comprenait également Chuang Gan, un membre principal du personnel de recherche du MIT-IBM Watson AI Lab. 

Rendre le processus de formation plus efficace

Pour rendre le processus de formation plus efficace et moins gourmand en mémoire, l'équipe s'est appuyée sur deux solutions algorithmiques. Le premier est connu sous le nom de mise à jour fragmentée, qui utilise un algorithme qui identifie les poids les plus importants à mettre à jour lors de chaque cycle d'entraînement. L'algorithme fige les poids un par un jusqu'à ce que la précision tombe à un certain seuil, auquel cas il s'arrête. Les poids restants sont alors mis à jour et les activations correspondant aux poids gelés n'ont pas besoin d'être stockées en mémoire. 

"La mise à jour de l'ensemble du modèle coûte très cher car il y a beaucoup d'activations, donc les gens ont tendance à ne mettre à jour que la dernière couche, mais comme vous pouvez l'imaginer, cela nuit à la précision", a déclaré Han. "Pour notre méthode, nous mettons à jour de manière sélective ces poids importants et nous nous assurons que la précision est entièrement préservée." 

La deuxième solution développée par l'équipe consiste à quantifier l'entraînement et à simplifier les poids. Un algorithme arrondit d'abord les poids à seulement huit bits via un processus de quantification qui réduit également la quantité de mémoire pour l'apprentissage et l'inférence, l'inférence étant le processus d'application d'un modèle à un ensemble de données et de génération d'une prédiction. L'algorithme s'appuie ensuite sur une technique appelée mise à l'échelle sensible à la quantification (QAS), qui agit comme un multiplicateur pour ajuster le rapport entre le poids et le gradient. Cela permet d'éviter toute baisse de précision qui pourrait résulter d'un entraînement quantifié. 

Les chercheurs ont développé un système appelé un petit moteur de formation, qui exécute les innovations de l'algorithme sur un simple microcontrôleur dépourvu de système d'exploitation. Pour effectuer plus de travail dans l'étape de compilation, avant le déploiement du modèle sur l'appareil périphérique, le système modifie l'ordre des étapes du processus de formation. 

"Nous poussons une grande partie du calcul, comme l'auto-différenciation et l'optimisation des graphes, au temps de compilation. Nous supprimons également de manière agressive les opérateurs redondants pour prendre en charge les mises à jour clairsemées. Une fois à l'exécution, nous avons beaucoup moins de travail à faire sur l'appareil », déclare Han. 

Technique très efficace

Alors que les techniques traditionnelles conçues pour une formation légère nécessitaient généralement environ 300 à 600 mégaoctets de mémoire, l'optimisation de l'équipe n'avait besoin que de 157 kilooctets pour former un modèle d'apprentissage automatique sur un microcontrôleur. 

Le framework a été testé en entraînant un modèle de vision par ordinateur pour détecter les personnes dans les images, et il a appris à accomplir cette tâche en seulement 10 minutes. La méthode a également permis d’entraîner un modèle plus de 20 fois plus rapidement que les autres méthodes. 

Les chercheurs vont maintenant chercher à appliquer les techniques à des modèles de langage et à différents types de données. Ils souhaitent également utiliser ces connaissances acquises pour réduire des modèles plus grands sans perte de précision, ce qui pourrait également aider à réduire l'empreinte carbone de la formation de modèles d'apprentissage automatique à grande échelle.

Alex McFarland est un journaliste et écrivain en IA qui explore les derniers développements en matière d'intelligence artificielle. Il a collaboré avec de nombreuses startups et publications d'IA dans le monde entier.