Suivez nous sur

TinyML : applications, limitations et utilisation dans les appareils IoT et Edge

Intelligence Artificielle

TinyML : applications, limitations et utilisation dans les appareils IoT et Edge

mm

Ces dernières annĂ©es, l’intelligence artificielle (IA) et Machine Learning Le ML a connu une popularitĂ© et des applications fulgurantes, non seulement dans l'industrie, mais aussi dans le monde universitaire. Cependant, les modèles actuels de ML et d'IA prĂ©sentent une limite majeure : ils nĂ©cessitent une puissance de calcul et de traitement considĂ©rable pour obtenir les rĂ©sultats et la prĂ©cision souhaitĂ©s. Cela limite souvent leur utilisation aux appareils performants dotĂ©s d'une puissance de calcul importante.

Mais compte tenu des progrès rĂ©alisĂ©s dans la technologie des systèmes embarquĂ©s et du dĂ©veloppement substantiel de l’industrie de l’Internet des objets, il est souhaitable d’incorporer l’utilisation des techniques et des concepts de ML dans un système embarquĂ© aux ressources limitĂ©es pour une intelligence omniprĂ©sente. Le dĂ©sir d'utiliser les concepts de ML dans les systèmes embarquĂ©s et IoT est le principal facteur de motivation derrière le dĂ©veloppement de TinyML, une technique de ML embarquĂ©e qui permet des modèles et des applications de ML sur plusieurs appareils Ă  ressources limitĂ©es, Ă  puissance limitĂ©e et bon marchĂ©. 

Cependant, la mise en Ĺ“uvre du ML sur des appareils aux ressources limitĂ©es n'a pas Ă©tĂ© simple, car la mise en Ĺ“uvre de modèles de ML sur des appareils Ă  faible puissance de calcul prĂ©sente ses propres dĂ©fis en termes d'optimisation, de capacitĂ© de traitement, de fiabilitĂ©, de maintenance des modèles et bien plus encore. 

Dans cet article, nous approfondirons le modèle TinyML et en apprendrons davantage sur son contexte, les outils prenant en charge TinyML et les applications de TinyML utilisant des technologies avancĂ©es. Alors commençons. 

Une introduction Ă  TinyML : Pourquoi le monde a besoin de TinyML

L'Internet des objets ou les appareils IoT visent Ă  tirer parti de l'informatique de pointe, un paradigme informatique qui fait rĂ©fĂ©rence Ă  une gamme d'appareils et de rĂ©seaux proches de l'utilisateur pour permettre un traitement transparent et en temps rĂ©el des donnĂ©es provenant de millions de capteurs et d'appareils interconnectĂ©s les uns aux autres. L’un des principaux avantages des appareils IoT est qu’ils nĂ©cessitent une faible puissance de calcul et de traitement car ils peuvent ĂŞtre dĂ©ployĂ©s Ă  la pĂ©riphĂ©rie du rĂ©seau et ont donc une faible empreinte mĂ©moire. 

De plus, les appareils IoT s'appuient fortement sur des plates-formes pĂ©riphĂ©riques pour collecter puis transmettre les donnĂ©es, car ces appareils pĂ©riphĂ©riques collectent des donnĂ©es sensorielles, puis les transmettent soit Ă  un emplacement Ă  proximitĂ©, soit Ă  des plates-formes cloud pour traitement. La technologie informatique de pointe stocke et effectue des calculs sur les donnĂ©es et fournit Ă©galement l'infrastructure nĂ©cessaire pour prendre en charge l'informatique distribuĂ©e. 

La mise en œuvre de l'informatique de pointe dans les appareils IoT fournit

  1. SĂ©curitĂ©, confidentialitĂ© et fiabilitĂ© efficaces pour les utilisateurs finaux. 
  2. DĂ©lai rĂ©duit. 
  3. DisponibilitĂ© accrue et rĂ©ponse du dĂ©bit aux applications et services. 

De plus, Ă©tant donnĂ© que les appareils pĂ©riphĂ©riques peuvent dĂ©ployer une technique collaborative entre les capteurs et le cloud, le traitement des donnĂ©es peut ĂŞtre effectuĂ© Ă  la pĂ©riphĂ©rie du rĂ©seau au lieu d'ĂŞtre effectuĂ© sur la plate-forme cloud. Cela peut se traduire par une gestion efficace des donnĂ©es, une persistance des donnĂ©es, une livraison efficace et une mise en cache du contenu. De plus, la mise en Ĺ“uvre de l’IoT dans des applications qui traitent de l’interaction H2M ou homme-machine et de l’informatique de pointe moderne dans le domaine des soins de santĂ© offre un moyen d’amĂ©liorer considĂ©rablement les services rĂ©seau. 

Des recherches rĂ©centes dans le domaine de l'informatique de pointe de l'IoT ont dĂ©montrĂ© le potentiel de mise en Ĺ“uvre de techniques d'apprentissage automatique dans plusieurs cas d'utilisation de l'IoT. Cependant, le problème majeur est que les modèles d'apprentissage automatique traditionnels nĂ©cessitent souvent une puissance de calcul et de traitement Ă©levĂ©e, ainsi qu'une capacitĂ© de mĂ©moire Ă©levĂ©e, ce qui limite la mise en Ĺ“uvre de modèles de ML dans les appareils et applications IoT. 

De plus, la technologie informatique de pointe manque aujourd'hui d'une capacitĂ© de transmission Ă©levĂ©e et d'Ă©conomies d'Ă©nergie efficaces, ce qui conduit Ă  des systèmes hĂ©tĂ©rogènes, ce qui est la principale raison de la nĂ©cessitĂ© d'une infrastructure harmonieuse et holistique, principalement pour la mise Ă  jour, la formation et le dĂ©ploiement de modèles ML. L'architecture conçue pour les appareils embarquĂ©s pose un autre dĂ©fi car ces architectures dĂ©pendent des exigences matĂ©rielles et logicielles qui varient d'un appareil Ă  l'autre. C'est la principale raison pour laquelle il est difficile de crĂ©er une architecture ML standard pour les rĂ©seaux IoT. 

De plus, dans le scĂ©nario actuel, les donnĂ©es gĂ©nĂ©rĂ©es par diffĂ©rents appareils sont envoyĂ©es vers des plates-formes cloud pour traitement en raison de la nature gourmande en calcul des implĂ©mentations de rĂ©seau. De plus, les modèles de ML dĂ©pendent souvent du Deep Learning, des rĂ©seaux de neurones profonds, des circuits intĂ©grĂ©s spĂ©cifiques Ă  une application (ASIC) et des unitĂ©s de traitement graphique (GPU) pour traiter les donnĂ©es, et ils ont souvent des besoins en Ă©nergie et en mĂ©moire plus Ă©levĂ©s. Le dĂ©ploiement de modèles ML Ă  part entière sur des appareils IoT n'est pas une solution viable en raison du manque Ă©vident de puissances de calcul et de traitement et de solutions de stockage limitĂ©es. 

La demande de miniaturisation des appareils embarquĂ©s Ă  faible consommation, associĂ©e Ă  l'optimisation des modèles ML pour les rendre plus efficaces en termes de consommation et de mĂ©moire, a ouvert la voie Ă  TinyML, qui vise Ă  mettre en Ĺ“uvre des modèles et des pratiques de ML sur les appareils et les cadres IoT de pointe. MinusculeML permet le traitement du signal sur les appareils IoT et fournit une intelligence intĂ©grĂ©e, Ă©liminant ainsi le besoin de transfĂ©rer des donnĂ©es vers des plates-formes cloud pour le traitement. La mise en Ĺ“uvre rĂ©ussie de TinyML sur les appareils IoT peut Ă  terme entraĂ®ner une confidentialitĂ© et une efficacitĂ© accrues tout en rĂ©duisant les coĂ»ts d'exploitation. De plus, ce qui rend TinyML plus attrayant, c'est qu'en cas de connectivitĂ© inadĂ©quate, il peut fournir des analyses sur site. 

TinyML : Introduction et prĂ©sentation

TinyML est un outil d'apprentissage automatique capable d'effectuer des analyses sur l'appareil pour différentes modalités de détection telles que l'audio, la vision et la parole. Les modèles ML basés sur l'outil TinyML ont de faibles exigences en matière de consommation, de mémoire et de calcul, ce qui les rend adaptés aux réseaux intégrés et aux appareils fonctionnant sur batterie. De plus, les faibles exigences de TinyML en font la solution idéale pour déployer des modèles ML sur le framework IoT.

Dans le scĂ©nario actuel, les systèmes ML basĂ©s sur le cloud sont confrontĂ©s Ă  quelques difficultĂ©s, notamment des problèmes de sĂ©curitĂ© et de confidentialitĂ©, une consommation d'Ă©nergie Ă©levĂ©e, une fiabilitĂ© et des problèmes de latence. C'est pourquoi les modèles sur les plates-formes matĂ©rielles et logicielles sont prĂ©installĂ©s. Les capteurs collectent les donnĂ©es qui simulent le monde physique, puis sont traitĂ©es Ă  l'aide d'un CPU ou d'un MPU (Microprocessing unit). Le MPU rĂ©pond aux besoins de prise en charge analytique ML grâce aux rĂ©seaux et Ă  l'architecture ML sensibles Ă  la pĂ©riphĂ©rie. L'architecture Edge ML communique avec le cloud ML pour le transfert de donnĂ©es, et la mise en Ĺ“uvre de TinyML peut entraĂ®ner des progrès technologiques significatifs. 

On peut affirmer sans se tromper que TinyML est un amalgame de logiciels, de matĂ©riel et d'algorithmes qui fonctionnent en synchronisation les uns avec les autres pour offrir les performances souhaitĂ©es. L'informatique analogique ou Ă  mĂ©moire peut ĂŞtre nĂ©cessaire pour offrir une expĂ©rience d'apprentissage meilleure et plus efficace pour le matĂ©riel et les appareils IoT qui ne prennent pas en charge les accĂ©lĂ©rateurs matĂ©riels. En ce qui concerne les logiciels, les applications créées Ă  l'aide de TinyML peuvent ĂŞtre dĂ©ployĂ©es et implĂ©mentĂ©es sur des plates-formes telles que Linux ou Linux embarquĂ©, ainsi que sur des logiciels compatibles cloud. Enfin, les applications et les systèmes construits sur l'algorithme TinyML doivent prendre en charge de nouveaux algorithmes nĂ©cessitant des modèles de faible taille de mĂ©moire pour Ă©viter une consommation Ă©levĂ©e de mĂ©moire. 

Pour rĂ©sumer, les applications créées Ă  l'aide de l'outil TinyML doivent optimiser les principes et mĂ©thodes de ML tout en concevant le logiciel de manière compacte, en prĂ©sence de donnĂ©es de haute qualitĂ©. Ces donnĂ©es doivent ensuite ĂŞtre flashĂ©es via des fichiers binaires gĂ©nĂ©rĂ©s Ă  l’aide de modèles formĂ©s sur des machines d’une capacitĂ© et d’une puissance de calcul beaucoup plus grandes. 

De plus, les systèmes et les applications exĂ©cutĂ©s sur l'outil TinyML doivent fournir une grande prĂ©cision lorsqu'ils fonctionnent sous des contraintes plus strictes, car un logiciel compact est nĂ©cessaire pour une faible consommation d'Ă©nergie prenant en charge les implications de TinyML. De plus, les applications ou modules TinyML peuvent dĂ©pendre de l'alimentation de la batterie pour prendre en charge leurs opĂ©rations sur les systèmes embarquĂ©s de pointe. 

Cela étant dit, les applications TinyML ont deux exigences fondamentales :

  1. CapacitĂ© Ă  faire Ă©voluer des milliards de systèmes embarquĂ©s bon marchĂ©. 
  2. Stockage du code sur la RAM de l'appareil avec une capacitĂ© infĂ©rieure Ă  quelques Ko. 

Applications de TinyML utilisant des technologies avancées

L'une des principales raisons pour lesquelles TinyML est un sujet brĂ»lant dans l'industrie de l'IA et du ML est due Ă  ses applications potentielles, notamment les applications basĂ©es sur la vision et la parole, le diagnostic de santĂ©, la compression et la classification des modèles de donnĂ©es, l'interface de contrĂ´le cĂ©rĂ©bral, l'informatique de pointe, la phĂ©nomique, l'auto-analyse. -conduire des voitures, et plus encore. 

Applications basées sur la parole

Communications vocales

En règle gĂ©nĂ©rale, les applications basĂ©es sur la parole s'appuient sur des mĂ©thodes de communication conventionnelles dans lesquelles toutes les donnĂ©es sont importantes et sont transmises. Cependant, ces dernières annĂ©es, la communication sĂ©mantique est apparue comme une alternative Ă  la communication conventionnelle car dans la communication sĂ©mantique, seul le sens ou le contexte des donnĂ©es est transmis. La communication sĂ©mantique peut ĂŞtre implĂ©mentĂ©e dans des applications basĂ©es sur la parole Ă  l'aide des mĂ©thodologies TinyML. 

Certaines des applications les plus populaires dans le secteur des communications vocales aujourd'hui sont la dĂ©tection vocale, la reconnaissance vocale, l'apprentissage en ligne, l'enseignement en ligne et la communication orientĂ©e objectifs. Ces applications ont gĂ©nĂ©ralement une consommation d'Ă©nergie plus Ă©levĂ©e et ont Ă©galement des besoins en donnĂ©es Ă©levĂ©s sur le pĂ©riphĂ©rique hĂ´te. Pour rĂ©pondre Ă  ces exigences, une nouvelle bibliothèque TinySpeech a Ă©tĂ© introduite. Elle permet aux dĂ©veloppeurs de crĂ©er une architecture de calcul faible utilisant des rĂ©seaux convolutifs profonds pour crĂ©er une installation de stockage faible. 

Pour utiliser TinyML pour l'amĂ©lioration de la parole, les dĂ©veloppeurs ont d'abord Ă©tudiĂ© le dimensionnement du modèle d'amĂ©lioration de la parole, soumis Ă  des limitations et contraintes matĂ©rielles. Pour rĂ©soudre ce problème, un Ă©lagage structurĂ© et une quantification d'entiers pour le modèle d'amĂ©lioration de la parole RNN (rĂ©seaux neuronaux rĂ©currents) ont Ă©tĂ© dĂ©ployĂ©s. Les rĂ©sultats suggèrent une rĂ©duction de la taille du modèle de près de 12 fois, tandis que les opĂ©rations sont rĂ©duites de près de 3 fois. De plus, il est essentiel d'utiliser efficacement les ressources, notamment lors du dĂ©ploiement sur des applications de reconnaissance vocale aux ressources limitĂ©es. 

En consĂ©quence, pour diviser le processus, une mĂ©thode de co-conception a Ă©tĂ© proposĂ©e pour les applications de reconnaissance vocale et vocale basĂ©es sur TinyML. Les dĂ©veloppeurs ont utilisĂ© l'opĂ©ration de fenĂŞtrage pour partitionner les logiciels et le matĂ©riel de manière Ă  prĂ©traiter les donnĂ©es vocales brutes. La mĂ©thode semble fonctionner puisque les rĂ©sultats indiquent une diminution de la consommation d’énergie du matĂ©riel. Enfin, il est Ă©galement possible de mettre en Ĺ“uvre un partitionnement optimisĂ© entre la co-conception logicielle et matĂ©rielle pour de meilleures performances dans un avenir proche. 

En outre, des recherches rĂ©centes ont proposĂ© l'utilisation d'un transducteur tĂ©lĂ©phonique pour les systèmes de reconnaissance vocale, et la proposition vise Ă  remplacer les prĂ©dicteurs LSTM par la couche Conv1D afin de rĂ©duire les besoins de calcul sur les appareils de pointe. Une fois mise en Ĺ“uvre, la proposition a donnĂ© des rĂ©sultats positifs car la SVD ou Singular Value Decomposition avait compressĂ© le modèle avec succès, tandis que l'utilisation du dĂ©codage basĂ© sur WFST ou Weighted Finite State Transducers a entraĂ®nĂ© une plus grande flexibilitĂ© dans le biais d'amĂ©lioration du modèle. 

De nombreuses applications importantes de reconnaissance vocale, telles que les assistants virtuels ou vocaux, le sous-titrage en direct et les commandes vocales, utilisent des techniques de ML pour fonctionner. Les assistants vocaux populaires actuellement comme Siri et Google Assistant envoient une requĂŞte ping Ă  la plate-forme cloud chaque fois qu'ils reçoivent des donnĂ©es, ce qui crĂ©e des problèmes importants liĂ©s Ă  la confidentialitĂ© et Ă  la sĂ©curitĂ© des donnĂ©es. TinyML est une solution viable Ă  ce problème car il vise Ă  effectuer une reconnaissance vocale sur les appareils et Ă  Ă©liminer le besoin de migrer les donnĂ©es vers des plates-formes cloud. L'un des moyens d'obtenir une reconnaissance vocale sur l'appareil consiste Ă  utiliser Tiny Transducer, un modèle de reconnaissance vocale qui utilise une couche DFSMN ou Deep Feed-Forward Sequential Memory Block couplĂ©e Ă  une couche Conv1D au lieu des couches LSTM pour rĂ©duire les exigences de calcul. et les paramètres rĂ©seau. 

Aides auditives

La perte auditive est un problème de santĂ© majeur dans le monde entier, et la capacitĂ© des humains Ă  entendre les sons s'affaiblit gĂ©nĂ©ralement avec l'âge, et constitue un problème majeur dans les pays confrontĂ©s au vieillissement de la population, notamment la Chine, le Japon et la CorĂ©e du Sud. Les appareils auditifs fonctionnent actuellement sur le principe simple d'amplifier tous les sons d'entrĂ©e provenant de l'environnement, ce qui rend difficile pour la personne de distinguer ou de diffĂ©rencier le son souhaitĂ©, en particulier dans un environnement bruyant. 

TinyML pourrait ĂŞtre la solution viable Ă  ce problème, car l'utilisation d'un modèle TinyLSTM qui utilise un algorithme de reconnaissance vocale pour les appareils auditifs peut aider les utilisateurs Ă  distinguer les diffĂ©rents sons. 

Applications basées sur la vision

TinyML a le potentiel de jouer un rĂ´le crucial dans le traitement vision par ordinateur car pour des sorties plus rapides, ces ensembles de donnĂ©es doivent ĂŞtre traitĂ©s sur la plate-forme Edge elle-mĂŞme. Pour y parvenir, le modèle TinyML rencontre les dĂ©fis pratiques rencontrĂ©s lors de la formation du modèle Ă  l'aide de la carte microcontrĂ´leur OpenMV H7. Les dĂ©veloppeurs ont Ă©galement proposĂ© une architecture pour dĂ©tecter la langue des signes amĂ©ricaine Ă  l'aide d'un microcontrĂ´leur ARM Cortex M7 qui fonctionne uniquement avec 496 Ko de RAM frame-buffer. 

La mise en Ĺ“uvre de TinyML pour les applications basĂ©es sur la vision par ordinateur sur les plates-formes de pointe a obligĂ© les dĂ©veloppeurs Ă  surmonter le dĂ©fi majeur du CNN ou des rĂ©seaux de neurones convolutifs avec une erreur de gĂ©nĂ©ralisation Ă©levĂ©e et une prĂ©cision de formation et de test Ă©levĂ©e. Cependant, la mise en Ĺ“uvre ne s'est pas gĂ©nĂ©ralisĂ©e efficacement aux images dans de nouveaux cas d'utilisation ainsi qu'aux arrière-plans avec du bruit. Lorsque les dĂ©veloppeurs ont utilisĂ© la mĂ©thode d'augmentation par interpolation, le modèle a renvoyĂ© un score de prĂ©cision de plus de 98 % sur les donnĂ©es de test et d'environ 75 % en gĂ©nĂ©ralisation. 

En outre, il a Ă©tĂ© observĂ© que lorsque les dĂ©veloppeurs utilisaient la mĂ©thode d'augmentation par interpolation, il y avait une baisse de la prĂ©cision du modèle lors de la quantification, mais en mĂŞme temps, il y avait Ă©galement une augmentation de la vitesse d'infĂ©rence du modèle et de la gĂ©nĂ©ralisation de la classification. Les dĂ©veloppeurs ont Ă©galement proposĂ© une mĂ©thode pour amĂ©liorer encore la prĂ©cision de la formation du modèle de gĂ©nĂ©ralisation sur des donnĂ©es obtenues Ă  partir de diverses sources diffĂ©rentes, et tester les performances pour explorer la possibilitĂ© de le dĂ©ployer sur des plates-formes de pointe telles que les montres intelligentes portables. 

Par ailleurs, des Ă©tudes complĂ©mentaires sur CNN a indiquĂ© qu'il est possible de dĂ©ployer et d'obtenir des rĂ©sultats souhaitables avec l'architecture CNN sur des appareils aux ressources limitĂ©es. RĂ©cemment, les dĂ©veloppeurs ont pu dĂ©velopper un cadre pour la dĂ©tection de masques mĂ©dicaux sur un microcontrĂ´leur ARM Cortex M7 avec des ressources limitĂ©es en utilisant TensorFlow Lite avec une empreinte mĂ©moire minimale. La taille du modèle après quantification Ă©tait d'environ 138 Ko alors que la vitesse d'interfĂ©rence sur la carte cible Ă©tait d'environ 30 FPS. 

Une autre application de TinyML pour les applications basĂ©es sur la vision par ordinateur consiste Ă  mettre en Ĺ“uvre un dispositif de reconnaissance gestuelle qui peut ĂŞtre fixĂ© Ă  une canne pour aider les personnes malvoyantes Ă  naviguer facilement dans leur vie quotidienne. Pour le concevoir, les dĂ©veloppeurs ont utilisĂ© l'ensemble de donnĂ©es de gestes et ont utilisĂ© l'ensemble de donnĂ©es pour entraĂ®ner le modèle ProtoNN avec un algorithme de classification. Les rĂ©sultats obtenus grâce Ă  la configuration Ă©taient prĂ©cis, la conception Ă©tait peu coĂ»teuse et a donnĂ© des rĂ©sultats satisfaisants. 

Une autre application importante de TinyML concerne le secteur de la conduite autonome et des vĂ©hicules autonomes en raison du manque de ressources et de puissance de calcul embarquĂ©e. Pour rĂ©soudre ce problème, les dĂ©veloppeurs ont introduit une mĂ©thode d'apprentissage en boucle fermĂ©e basĂ©e sur le modèle TinyCNN qui proposait un modèle de prĂ©dicteur en ligne qui capture l'image au moment de l'exĂ©cution. Le principal problème auquel les dĂ©veloppeurs ont Ă©tĂ© confrontĂ©s lors de la mise en Ĺ“uvre de TinyML pour la conduite autonome Ă©tait que le modèle de dĂ©cision formĂ© pour fonctionner sur des donnĂ©es hors ligne pouvait ne pas fonctionner aussi bien lorsqu'il s'agissait de donnĂ©es en ligne. Pour maximiser pleinement les applications des voitures autonomes et des voitures autonomes, le modèle devrait idĂ©alement ĂŞtre capable de s'adapter aux donnĂ©es en temps rĂ©el. 

Classification et compression des modèles de données

L'un des plus grands dĂ©fis du framework TinyML actuel est de faciliter son adaptation aux donnĂ©es de formation en ligne. Pour rĂ©soudre ce problème, les dĂ©veloppeurs ont proposĂ© une mĂ©thode connue sous le nom de TinyOL ou TinyML Online Learning pour permettre la formation avec un apprentissage en ligne incrĂ©mentiel sur les unitĂ©s de microcontrĂ´leur, permettant ainsi au modèle de se mettre Ă  jour sur les appareils IoT Edge. L'implĂ©mentation a Ă©tĂ© rĂ©alisĂ©e Ă  l'aide du langage de programmation C++ et une couche supplĂ©mentaire a Ă©tĂ© ajoutĂ©e Ă  l'architecture TinyOL. 

En outre, les dĂ©veloppeurs ont Ă©galement effectuĂ© l'encodage automatique de la carte capteur Arduino Nano 33 BLE, et le modèle formĂ© a Ă©tĂ© capable de classer de nouveaux modèles de donnĂ©es. En outre, le travail de dĂ©veloppement comprenait la conception d'algorithmes efficaces et plus optimisĂ©s pour les rĂ©seaux de neurones afin de prendre en charge les modèles de formation des appareils en ligne. 

Les recherches sur TinyOL et TinyML ont indiquĂ© que le nombre de couches d'activation constitue un problème majeur pour les appareils IoT Edge dont les ressources sont limitĂ©es. Pour rĂ©soudre ce problème, les dĂ©veloppeurs ont introduit le nouveau modèle TinyTL ou Tiny Transfer Learning pour rendre l'utilisation de la mĂ©moire sur les appareils IoT Edge beaucoup plus efficace et Ă©viter l'utilisation de couches intermĂ©diaires Ă  des fins d'activation. De plus, les dĂ©veloppeurs ont Ă©galement introduit un tout nouveau module de biais appelĂ© «module lĂ©ger-rĂ©siduel" pour maximiser les capacitĂ©s d'adaptation, et bien sĂ»r permettre aux extracteurs de fonctionnalitĂ©s de dĂ©couvrir des cartes de fonctionnalitĂ©s rĂ©siduelles. 

Par rapport au rĂ©glage complet du rĂ©seau, les rĂ©sultats Ă©taient en faveur de l'architecture TinyTL, car ils ont montrĂ© que TinyTL rĂ©duisait la surcharge de mĂ©moire d'environ 6.5 fois avec une perte de prĂ©cision modĂ©rĂ©e. Lorsque la dernière couche a Ă©tĂ© affinĂ©e, TinyML a amĂ©liorĂ© la prĂ©cision de 34 % avec une perte de prĂ©cision modĂ©rĂ©e. 

De plus, des recherches sur la compression des donnĂ©es ont indiquĂ© que algorithmes de compression de donnĂ©es doit gĂ©rer les donnĂ©es collectĂ©es sur un appareil portable, et pour y parvenir, les dĂ©veloppeurs ont proposĂ© TAC ou Tiny Anomaly Compressor. Le TAC a pu surpasser les algorithmes SDT ou Swing Door Trending et DCT ou Discrete Cosine Transform. De plus, l'algorithme TAC a surpassĂ© les algorithmes SDT et DCT en atteignant un taux de compression maximal de plus de 98 % et en ayant le rapport signal/bruit de crĂŞte supĂ©rieur parmi les trois algorithmes. 

Diagnostic de santé

La pandĂ©mie mondiale de Covid-19 a ouvert de nouvelles opportunitĂ©s pour la mise en Ĺ“uvre de TinyML, car il s'agit dĂ©sormais d'une pratique essentielle pour dĂ©tecter en permanence les symptĂ´mes respiratoires liĂ©s Ă  la toux et au rhume. Pour assurer une surveillance ininterrompue, les dĂ©veloppeurs ont proposĂ© un modèle CNN Tiny RespNet qui fonctionne sur un paramètre multi-modèle, et le modèle est dĂ©ployĂ© sur un FPGA Xilinx Artix-7 100t qui permet Ă  l'appareil de traiter les informations en parallèle, a une grande efficacitĂ©, et une faible consommation d'Ă©nergie. De plus, le modèle TinyResp prend Ă©galement en compte la parole des patients, les enregistrements audio et les informations dĂ©mographiques comme entrĂ©es pour la classification, et les symptĂ´mes liĂ©s Ă  la toux d'un patient sont classĂ©s Ă  l'aide de trois ensembles de donnĂ©es distincts. 

En outre, les dĂ©veloppeurs ont Ă©galement proposĂ© un modèle capable d'exĂ©cuter des calculs d'apprentissage en profondeur sur des appareils de pointe, un modèle TinyML nommĂ© TinyDL. Le modèle TinyDL peut ĂŞtre dĂ©ployĂ© sur des appareils de pointe tels que les montres intelligentes et les appareils portables pour le diagnostic de santĂ©, et est Ă©galement capable d'effectuer une analyse des performances pour rĂ©duire la bande passante, la latence et la consommation d'Ă©nergie. Pour rĂ©aliser le dĂ©ploiement de TinyDL sur les appareils portables, un modèle LSTM a Ă©tĂ© conçu et formĂ© spĂ©cifiquement pour un appareil portable, et il a Ă©tĂ© alimentĂ© en donnĂ©es collectĂ©es en entrĂ©e. Le modèle a un score de prĂ©cision d'environ 75 Ă  80 % et il est Ă©galement capable de fonctionner avec des donnĂ©es hors appareil. Ces modèles fonctionnant sur des appareils de pointe ont montrĂ© le potentiel de rĂ©soudre les dĂ©fis actuels auxquels sont confrontĂ©s les appareils IoT. 

Enfin, les dĂ©veloppeurs ont Ă©galement proposĂ© une autre application pour surveiller la santĂ© des personnes âgĂ©es en estimant et analysant leurs poses corporelles. Le modèle utilise le cadre agnostique sur l'appareil qui permet au modèle de permettre la validation et une promotion rapide pour effectuer des adaptations. Le modèle a mis en Ĺ“uvre des algorithmes de dĂ©tection de pose corporelle couplĂ©s Ă  des repères faciaux pour dĂ©tecter les poses spatio-temporelles du corps en temps rĂ©el. 

EdgeComputing

L'une des principales applications de TinyML se situe dans le domaine de l'informatique de pointe, car avec l'utilisation croissante d'appareils IoT pour connecter des appareils Ă  travers le monde, il est essentiel de configurer des appareils de pĂ©riphĂ©rie car cela contribuera Ă  rĂ©duire la charge sur les architectures cloud. . Ces appareils de pointe comporteront des centres de donnĂ©es individuels qui leur permettront d'effectuer des calculs de haut niveau sur l'appareil lui-mĂŞme, plutĂ´t que de s'appuyer sur l'architecture cloud. En consĂ©quence, cela contribuera Ă  rĂ©duire la dĂ©pendance au cloud, Ă  rĂ©duire la latence, Ă  amĂ©liorer la sĂ©curitĂ© et la confidentialitĂ© des utilisateurs, ainsi qu'Ă  rĂ©duire la bande passante. 

Les appareils Edge utilisant les algorithmes TinyML aideront Ă  rĂ©soudre les contraintes actuelles liĂ©es aux exigences en matière de puissance, de calcul et de mĂ©moire, et cela est expliquĂ© dans l'image ci-dessous. 

En outre, TinyML peut Ă©galement amĂ©liorer l'utilisation et l'application des vĂ©hicules aĂ©riens sans pilote ou UAV en rĂ©pondant aux limitations actuelles auxquelles ces machines sont confrontĂ©es. L'utilisation de TinyML peut permettre aux dĂ©veloppeurs de mettre en Ĺ“uvre un dispositif Ă©conome en Ă©nergie, dotĂ© d'une faible latence et d'une puissance de calcul Ă©levĂ©e, pouvant servir de contrĂ´leur pour ces drones. 

Interface cerveau-ordinateur ou BCI

TinyML a des applications importantes dans le secteur de la santĂ© et peut s'avĂ©rer très bĂ©nĂ©fique dans diffĂ©rents domaines, notamment la dĂ©tection du cancer et des tumeurs, les prĂ©visions de santĂ© Ă  l'aide des signaux ECG et EEG et l'intelligence Ă©motionnelle. L’utilisation de TinyML peut permettre Ă  la stimulation cĂ©rĂ©brale adaptative profonde ou aDBS de s’adapter avec succès aux adaptations cliniques. L'utilisation de TinyMl peut Ă©galement permettre Ă  aDBS d'identifier les biomarques liĂ©es Ă  la maladie et leurs symptĂ´mes Ă  l'aide d'enregistrements invasifs des signaux cĂ©rĂ©braux. 

De plus, le secteur de la santĂ© implique souvent la collecte d'un volume important de donnĂ©es sur les patients, qui doivent ensuite ĂŞtre traitĂ©es pour Ă©laborer des solutions spĂ©cifiques pour le traitement des patients aux premiers stades de la maladie. Il est donc essentiel de concevoir un système non seulement performant, mais aussi hautement sĂ©curisĂ©. L'association des applications IoT au modèle TinyML donne naissance Ă  un nouveau domaine : l'IoT mĂ©dical (H-IoT), ou Internet des objets pour la santĂ©. Ses principales applications sont le diagnostic, la surveillance, la logistique, le contrĂ´le de la propagation et les systèmes d'assistance. Pour dĂ©velopper des appareils capables de dĂ©tecter et d'analyser l'Ă©tat de santĂ© d'un patient Ă  distance, il est essentiel de dĂ©velopper un système accessible partout dans le monde et Ă  faible latence. 

Véhicules autonomes

Enfin, TinyML peut avoir des applications gĂ©nĂ©ralisĂ©es dans l'industrie des vĂ©hicules autonomes, car ces vĂ©hicules peuvent ĂŞtre utilisĂ©s de diffĂ©rentes manières, notamment pour le suivi humain, Ă  des fins militaires et ont des applications industrielles. Ces vĂ©hicules ont pour exigence première de pouvoir identifier efficacement les objets lorsque l'objet est recherchĂ©. 

Ă€ l’heure actuelle, les vĂ©hicules autonomes et la conduite autonome constituent une tâche assez complexe, en particulier lors du dĂ©veloppement de vĂ©hicules mini ou de petite taille. Des dĂ©veloppements rĂ©cents ont montrĂ© le potentiel d'amĂ©liorer l'application de la conduite autonome pour les mini-vĂ©hicules en utilisant une architecture CNN et en dĂ©ployant le modèle sur le GAP8 MCI. 

Défis

TinyML est un concept relativement nouveau dans le secteur de l'IA et du ML, et malgrĂ© les progrès rĂ©alisĂ©s, il n'est toujours pas aussi efficace que nous en aurions besoin pour un dĂ©ploiement de masse pour les appareils Edge et IoT. 

Le plus grand dĂ©fi actuellement rencontrĂ© par les appareils TinyML est la consommation Ă©lectrique de ces appareils. IdĂ©alement, les appareils Edge et IoT intĂ©grĂ©s devraient avoir une durĂ©e de vie de la batterie supĂ©rieure Ă  10 ans. Par exemple, dans des conditions idĂ©ales, un appareil IoT fonctionnant avec une batterie de 2 Ah est censĂ© avoir une autonomie de plus de 10 ans Ă©tant donnĂ© que la consommation Ă©lectrique de l'appareil est d'environ 12 uun. Cependant, dans l'Ă©tat donnĂ©, une architecture IoT avec un capteur de tempĂ©rature, une unitĂ© MCU et un module WiFi, la consommation de courant s'Ă©lève Ă  environ 176.4 mA, et avec cette consommation d'Ă©nergie, la batterie ne durera qu'environ 11 heures, au lieu de cela. des 10 annĂ©es requises d’autonomie de la batterie. 

Contraintes de ressources

Pour maintenir la cohĂ©rence d'un algorithme, il est essentiel de maintenir la disponibilitĂ© de l'Ă©nergie. Or, dans le contexte actuel, la disponibilitĂ© limitĂ©e de l'Ă©nergie pour les appareils TinyML constitue un dĂ©fi majeur. De plus, les limitations de mĂ©moire constituent Ă©galement un dĂ©fi majeur, car le dĂ©ploiement de modèles nĂ©cessite souvent une quantitĂ© importante de mĂ©moire pour fonctionner efficacement et avec prĂ©cision. 

Contraintes matérielles

Les contraintes matĂ©rielles rendent difficile le dĂ©ploiement d'algorithmes TinyML Ă  grande Ă©chelle en raison de l'hĂ©tĂ©rogĂ©nĂ©itĂ© des pĂ©riphĂ©riques matĂ©riels. Il existe des milliers d'appareils, chacun avec ses propres spĂ©cifications et exigences matĂ©rielles, et par consĂ©quent, un algorithme TinyML doit actuellement ĂŞtre peaufinĂ© pour chaque appareil individuel, ce qui fait du dĂ©ploiement de masse un problème majeur. 

Contraintes des ensembles de données

L'un des problèmes majeurs des modèles TinyML est qu'ils ne prennent pas en charge les ensembles de donnĂ©es existants. C'est un dĂ©fi pour tous les appareils de pointe, car ils collectent des donnĂ©es Ă  l'aide de capteurs externes, et ces appareils ont souvent des contraintes de puissance et d'Ă©nergie. Par consĂ©quent, les ensembles de donnĂ©es existants ne peuvent pas ĂŞtre utilisĂ©s pour entraĂ®ner efficacement les modèles TinyML. 

Réflexions finales

Le dĂ©veloppement des techniques de ML a provoquĂ© une rĂ©volution et un changement de perspective dans l'Ă©cosystème IoT. L'intĂ©gration de modèles ML dans les appareils IoT permettra Ă  ces appareils de pĂ©riphĂ©rie de prendre eux-mĂŞmes des dĂ©cisions intelligentes sans aucune intervention humaine externe. Cependant, de manière conventionnelle, les modèles de ML ont souvent des exigences Ă©levĂ©es en matière de puissance, de mĂ©moire et de calcul, ce qui les rend unifiĂ©s pour ĂŞtre dĂ©ployĂ©s sur des appareils de pĂ©riphĂ©rie dont les ressources sont souvent limitĂ©es. 

En consĂ©quence, une nouvelle branche de l’IA a Ă©tĂ© dĂ©diĂ©e Ă  l’utilisation du ML pour les appareils IoT, et elle a Ă©tĂ© appelĂ©e TinyML. Le TinyML est un framework ML qui permet mĂŞme aux appareils aux ressources limitĂ©es d'exploiter la puissance de l'IA et du ML pour garantir une prĂ©cision, une intelligence et une efficacitĂ© accrues. 

Dans cet article, nous avons parlĂ© de la mise en Ĺ“uvre de modèles TinyML sur des appareils IoT aux ressources limitĂ©es, et cette mise en Ĺ“uvre nĂ©cessite la formation des modèles, le dĂ©ploiement des modèles sur le matĂ©riel et l'exĂ©cution de techniques de quantification. Cependant, compte tenu de la portĂ©e actuelle, les modèles ML prĂŞts Ă  ĂŞtre dĂ©ployĂ©s sur les appareils IoT et Edge prĂ©sentent plusieurs complexitĂ©s et contraintes, notamment des problèmes de compatibilitĂ© matĂ©rielle et de framework. 

« IngĂ©nieur de profession, Ă©crivain de cĹ“ur Â». Kunal est un rĂ©dacteur technique avec un amour et une comprĂ©hension profonds de l'IA et du ML, dĂ©diĂ© Ă  la simplification de concepts complexes dans ces domaines grâce Ă  sa documentation engageante et informative.