talon Un nouveau système peut apporter l'IA aux appareils portables et aux appareils électroménagers - Unite.AI
Suivez nous sur

Intelligence artificielle

Un nouveau système peut apporter l'IA aux appareils portables et aux appareils électroménagers

Publié le

 on

Une équipe de chercheurs du MIT travaille à apporter des réseaux de neurones d'apprentissage en profondeur aux microcontrôleurs. Cette avancée signifie que l'intelligence artificielle (IA) pourrait être implémentée dans de minuscules puces informatiques dans des dispositifs médicaux portables, des appareils électroménagers et les 250 autres milliards d'objets qui composent «l'Internet des objets» (IoT). L'IoT est un réseau d'objets physiques intégrant des capteurs, des logiciels et d'autres technologies, qui permettent de se connecter et d'échanger des données avec d'autres appareils et systèmes. 

La un article doit être présenté à la conférence sur les systèmes de traitement de l'information neuronale en décembre. L'auteur principal de la recherche est Ji Lin, titulaire d'un doctorat. étudiant dans le laboratoire de Song Han au département de génie électrique et d'informatique du MIT. Les co-auteurs incluent Han et Yujun Lin du MIT, Wei-Ming Chen du MIT et de l'Université nationale de Taiwan, et John Cohn et Chuan Gan du MIT-IBM Watson Lab. 

Système MCUNet

Le système s'appelle MCUNet et conçoit des réseaux de neurones compacts capables d'une vitesse et d'une précision extrêmes sur les appareils IoT, même avec une mémoire et une puissance de traitement limitées. Ce système peut être plus économe en énergie et améliorer la sécurité des données. 

L'équipe a développé le système de « Tiny Deep Learning » en combinant deux composants : le fonctionnement des réseaux de neurones et des microcontrôleurs. Le premier composant est TinyEngine, un moteur d'interface faisant office de système d'exploitation en dirigeant la gestion des ressources. TinyEngine est optimisé pour exécuter une structure de réseau neuronal spécifique sélectionnée par TinyNAS, qui est l'autre composant. TinyNAS est un algorithme de recherche d'architecture neuronale. 

Lin a développé TinyNAS en raison de la difficulté d'appliquer les techniques de recherche d'architecture neuronale existantes à de minuscules microcontrôleurs. Ces techniques existantes finissent par trouver la structure de réseau la plus précise et la plus rentable après avoir commencé avec de nombreuses possibilités basées sur un modèle prédéfini.

"Cela peut très bien fonctionner pour les GPU ou les smartphones", déclare Lin. "Mais il a été difficile d'appliquer directement ces techniques à de minuscules microcontrôleurs, car ils sont trop petits."

TinyNAS peut créer des réseaux de taille personnalisée. 

"Nous avons beaucoup de microcontrôleurs qui viennent avec différentes capacités d'alimentation et différentes tailles de mémoire", explique Lin. "Nous avons donc développé l'algorithme [TinyNAS] pour optimiser l'espace de recherche pour différents microcontrôleurs."

Parce que TinyNAS peut être personnalisé, il peut générer les meilleurs réseaux de neurones compacts possibles pour les microcontrôleurs. 

"Ensuite, nous livrons le modèle final et efficace au microcontrôleur", poursuit Lin.

Un moteur d'interface propre et mince est nécessaire pour qu'un microcontrôleur exécute le minuscule réseau de neurones. De nombreux moteurs d'interface ont des instructions pour des tâches rarement exécutées, ce qui pourrait gêner un microcontrôleur. 

"Il n'a pas de mémoire hors puce et il n'a pas de disque", explique Han. "Tout ensemble ne représente qu'un mégaoctet de flash, nous devons donc gérer très soigneusement une si petite ressource."

TinyEngine génère le code nécessaire pour exécuter le réseau neuronal personnalisé développé par TinyNAS. Le temps de compilation est réduit en supprimant le code de poids mort.

« Nous ne gardons que ce dont nous avons besoin », dit Han. « Et depuis que nous avons conçu le réseau de neurones, nous savons exactement ce dont nous avons besoin. C'est l'avantage de la conception codée des algorithmes système. 

Les tests ont démontré que le code binaire compilé du TinyEngine était 1.9 à cinq fois plus petit que les moteurs de microcontrôleurs similaires, y compris ceux de Google et ARM. L'utilisation maximale de la mémoire a également été réduite de près de moitié.

Capacité de MCUNet

Les premiers tests pour MCUNet tournaient autour de la classification des images. La base de données ImageNet a été utilisée pour former le système avec des images étiquetées, et sa capacité a ensuite été testée sur de nouvelles images. 

Lorsque MCUNet a été testé sur un microcontrôleur commercial, il a classé avec succès 70.7 % des nouvelles images. C'est bien mieux que le précédent meilleur appariement réseau de neurones et moteur d'interférence, qui était précis à 54 %.

"Même une amélioration de 1 % est considérée comme significative", déclare Lin. "C'est donc un pas de géant pour les paramètres du microcontrôleur."

Selon Kurt Keutzer, informaticien à l'Université de Californie à Berkeley, cela "étend encore plus loin la frontière de la conception de réseaux neuronaux profonds dans le domaine informatique des petits microcontrôleurs économes en énergie". MCUNet pourrait "apporter des capacités de vision par ordinateur intelligentes même aux appareils de cuisine les plus simples, ou activer des capteurs de mouvement plus intelligents". 

MCUNet améliore également la sécurité des données.  

"Un avantage clé est de préserver la confidentialité", déclare Han. "Vous n'avez pas besoin de transmettre les données au cloud."

En analysant les données localement, il y a moins de chance que des informations personnelles soient compromises. 

En plus de cela, MCUNet pourrait analyser et fournir des informations sur des informations telles que les battements cardiaques, la pression artérielle et les lectures du niveau d'oxygène, apporter un apprentissage approfondi aux appareils IoT dans les véhicules et autres endroits avec un accès Internet limité, et réduire l'empreinte carbone en n'utilisant qu'une petite fraction de l'énergie nécessaire aux grands réseaux de neurones.

 

Alex McFarland est un journaliste et écrivain en IA qui explore les derniers développements en matière d'intelligence artificielle. Il a collaboré avec de nombreuses startups et publications d'IA dans le monde entier.