stub TinyML: Applications, Limitations, and It's Use in IoT & Edge Devices - Unite.AI
Følg os

Kunstig intelligens

TinyML: Applikationer, begrænsninger og dets brug i IoT- og Edge-enheder

mm
Opdateret on

I de seneste par år har kunstig intelligens (AI) og Maskinelæring (ML) har været vidne til en voldsom stigning i popularitet og anvendelser, ikke kun i industrien, men også i den akademiske verden. Men nutidens ML- og AI-modeller har en stor begrænsning: de kræver en enorm mængde computer- og processorkraft for at opnå de ønskede resultater og nøjagtighed. Dette begrænser ofte deres brug til højkapacitetsenheder med betydelig computerkraft.

Men i betragtning af de fremskridt, der er gjort inden for indlejret systemteknologi, og den betydelige udvikling i Internet of Things-industrien, er det ønskeligt at inkorporere brugen af ​​ML-teknikker og -koncepter i et ressourcebegrænset indlejret system til allestedsnærværende intelligens. Ønsket om at bruge ML-koncepter i indlejrede & IoT-systemer er den primære motivationsfaktor bag udviklingen af ​​TinyML, en indlejret ML-teknik, der tillader ML-modeller og -applikationer på flere ressourcebegrænsede, strømbegrænsede og billige enheder. 

Implementeringen af ​​ML på ressourcebegrænsede enheder har dog ikke været enkel, fordi implementering af ML-modeller på enheder med lav computerkraft giver sine egne udfordringer med hensyn til optimering, behandlingskapacitet, pålidelighed, vedligeholdelse af modeller og meget mere. 

I denne artikel vil vi tage et dybere dyk ned i TinyML-modellen og lære mere om dens baggrund, værktøjerne, der understøtter TinyML, og applikationerne af TinyML ved hjælp af avancerede teknologier. Så lad os starte. 

En introduktion til TinyML: Hvorfor verden har brug for TinyML

Internet of Things eller IoT-enheder har til formål at udnytte edge computing, et computerparadigme, der refererer til en række enheder og netværk i nærheden af ​​brugeren for at muliggøre problemfri og realtidsbehandling af data fra millioner af sensorer og enheder forbundet med hinanden. En af de største fordele ved IoT-enheder er, at de kræver lav computer- og processorkraft, da de kan implementeres ved netværkskanten, og derfor har de et lavt hukommelsesfodaftryk. 

Ydermere er IoT-enhederne stærkt afhængige af kantplatforme til at indsamle og derefter overføre dataene, efterhånden som disse kantenheder indsamler sensoriske data og derefter transmitterer dem enten til et nærliggende sted eller til skyplatforme til behandling. Edge computing-teknologien lagrer og udfører databehandling på dataene og leverer også den nødvendige infrastruktur til at understøtte den distribuerede databehandling. 

Implementeringen af ​​edge computing i IoT-enheder giver

  1. Effektiv sikkerhed, privatliv og pålidelighed for slutbrugerne. 
  2. Lavere forsinkelse. 
  3. Højere tilgængelighed og gennemstrømningsrespons på applikationer og tjenester. 

Fordi edge-enheder kan implementere en samarbejdsteknik mellem sensorerne og skyen, kan databehandlingen ydermere udføres ved netværkskanten i stedet for at blive udført på cloud-platformen. Dette kan resultere i effektiv datastyring, datapersistens, effektiv levering og cachelagring af indhold. Derudover giver det at implementere IoT i applikationer, der beskæftiger sig med H2M eller Human to Machine-interaktion og moderne healthcare edge computing, en måde at forbedre netværkstjenesterne betydeligt på. 

Nyere forskning inden for IoT edge computing har vist potentialet til at implementere Machine Learning-teknikker i adskillige IoT-brugssager. Det største problem er dog, at traditionelle maskinlæringsmodeller ofte kræver stærk computer- og processorkraft og høj hukommelseskapacitet, der begrænser implementeringen af ​​ML-modeller i IoT-enheder og -applikationer. 

Ydermere mangler edge computing-teknologi i dag høj transmissionskapacitet og effektive strømbesparelser, der fører til heterogene systemer, hvilket er hovedårsagen bag kravet om harmonisk og holistisk infrastruktur, primært til opdatering, træning og implementering af ML-modeller. Arkitekturen designet til indlejrede enheder udgør en anden udfordring, da disse arkitekturer afhænger af hardware- og softwarekravene, der varierer fra enhed til enhed. Det er hovedårsagen til, at det er vanskeligt at bygge en standard ML-arkitektur til IoT-netværk. 

Også i det aktuelle scenarie sendes de data, der genereres af forskellige enheder, til cloud-platforme til behandling på grund af den beregningsintensive karakter af netværksimplementeringer. Ydermere er ML-modeller ofte afhængige af Deep Learning, Deep Neural Networks, Application Specific Integrated Circuits (ASIC'er) og Graphic Processing Units (GPU'er) til at behandle dataene, og de har ofte et højere strøm- og hukommelsesbehov. Implementering af fuldgyldige ML-modeller på IoT-enheder er ikke en levedygtig løsning på grund af den åbenlyse mangel på computer- og processorkraft og begrænsede lagerløsninger. 

Kravet om at miniaturisere indlejrede enheder med lavt strømforbrug kombineret med optimering af ML-modeller for at gøre dem mere strøm- og hukommelseseffektive har banet vejen for TinyML, der har til formål at implementere ML-modeller og -praksis på edge IoT-enheder og -framework. TinyML muliggør signalbehandling på IoT-enheder og giver indlejret intelligens, hvilket eliminerer behovet for at overføre data til cloud-platforme til behandling. Succesfuld implementering af TinyML på IoT-enheder kan i sidste ende resultere i øget privatliv og effektivitet, samtidig med at driftsomkostningerne reduceres. Derudover er det, der gør TinyML mere tiltalende, at det i tilfælde af utilstrækkelig tilslutning kan levere analyser på stedet. 

TinyML: Introduktion og oversigt

TinyML er et maskinlæringsværktøj, der har evnen til at udføre analyser på enheden for forskellige sansemodaliteter som lyd, syn og tale. Ml-modeller, der bygger på TinyML-værktøjet, har lave strøm-, hukommelses- og computerkrav, der gør dem velegnede til indlejrede netværk og enheder, der kører på batteristrøm. Derudover gør TinyML's lave krav den til en ideel pasform til at implementere ML-modeller på IoT-rammerne.

I det nuværende scenarie står skybaserede ML-systemer over for nogle få problemer, herunder sikkerheds- og privatlivsproblemer, højt strømforbrug, pålidelighed og latensproblemer, hvilket er grunden til, at modeller på hardware-softwareplatforme er forudinstalleret. Sensorer samler de data, der simulerer den fysiske verden, og behandles derefter ved hjælp af en CPU eller MPU (Microprocessing unit). MPU'en imødekommer behovene for ML analytisk support aktiveret af kantbevidste ML-netværk og -arkitektur. Edge ML-arkitektur kommunikerer med ML-skyen til overførsel af data, og implementeringen af ​​TinyML kan resultere i betydelige fremskridt i teknologien. 

Det ville være sikkert at sige, at TinyML er en sammenlægning af software, hardware og algoritmer, der arbejder synkront med hinanden for at levere den ønskede ydeevne. Analog eller hukommelsesberegning kan være påkrævet for at give en bedre og effektiv læringsoplevelse for hardware- og IoT-enheder, der ikke understøtter hardwareacceleratorer. Hvad software angår, kan de applikationer, der er bygget ved hjælp af TinyML, implementeres og implementeres over platforme som Linux eller indlejret Linux og over cloud-aktiveret software. Endelig skal applikationer og systemer bygget på TinyML-algoritmen have understøttelse af nye algoritmer, der har brug for modeller med lav hukommelsesstørrelse for at undgå højt hukommelsesforbrug. 

For at opsummere, skal applikationer, der er bygget ved hjælp af TinyML-værktøjet, optimere ML-principper og -metoder sammen med at designe softwaren kompakt, i nærværelse af data af høj kvalitet. Disse data skal derefter flashes gennem binære filer, der genereres ved hjælp af modeller, der er trænet på maskiner med meget større kapacitet og computerkraft. 

Derudover skal systemer og applikationer, der kører på TinyML-værktøjet, give høj nøjagtighed, når de udfører under strammere begrænsninger, fordi kompakt software er nødvendig til et lille strømforbrug, der understøtter TinyML-implikationer. Ydermere kan TinyML-applikationerne eller -modulerne være afhængige af batteristrøm for at understøtte dets operationer på edge-indlejrede systemer. 

Når det er sagt, har TinyML-applikationer to grundlæggende krav

  1. Evne til at skalere milliarder af billige indlejrede systemer. 
  2. Lagring af koden på enhedens RAM med kapacitet under nogle få KB. 

Anvendelser af TinyML ved hjælp af avancerede teknologier

En af hovedårsagerne til, at TinyML er et varmt emne i AI & ML-industrien, er på grund af dets potentielle anvendelser, herunder syns- og talebaserede applikationer, sundhedsdiagnose, datamønsterkomprimering og klassificering, hjernekontrolgrænseflade, edge computing, fænomik, selv -køre biler og meget mere. 

Talebaserede applikationer

Talekommunikation

Typisk er talebaserede applikationer afhængige af konventionelle kommunikationsmetoder, hvor alle data er vigtige, og de transmitteres. Men i de senere år er semantisk kommunikation dukket op som et alternativ til konventionel kommunikation som i semantisk kommunikation, kun betydningen eller konteksten af ​​dataene overføres. Semantisk kommunikation kan implementeres på tværs af talebaserede applikationer ved hjælp af TinyML-metoder. 

Nogle af de mest populære applikationer i talekommunikationsindustrien i dag er talegenkendelse, talegenkendelse, online læring, online undervisning og målorienteret kommunikation. Disse applikationer har typisk et højere strømforbrug, og de har også høje datakrav på værtsenheden. For at overvinde disse krav er et nyt TinySpeech-bibliotek blevet introduceret, som giver udviklere mulighed for at bygge en lav beregningsarkitektur, der bruger dybe foldningsnetværk til at bygge en lav lagerfacilitet. 

For at bruge TinyML til taleforbedring, behandlede udviklerne først størrelsen af ​​taleforbedringsmodellen, fordi den var underlagt hardwarebegrænsninger og begrænsninger. For at løse problemet blev struktureret beskæring og heltalskvantisering til RNN eller Recurrent Neural Networks taleforbedringsmodel implementeret. Resultaterne foreslog, at modellens størrelse blev reduceret med næsten 12x, mens operationerne blev reduceret med næsten 3x. Derudover er det afgørende, at ressourcer skal udnyttes effektivt, især når de implementeres på ressourcebegrænsede applikationer, der udfører stemmegenkendelsesapplikationer. 

Som et resultat, for at opdele processen, blev der foreslået en co-designmetode til TinyML-baserede stemme- og talegenkendelsesapplikationer. Udviklerne brugte vinduesoperation til at partitionere software og hardware på en måde til at forbehandle de rå stemmedata. Metoden så ud til at virke, da resultaterne indikerede et fald i energiforbruget på hardwaren. Endelig er der også potentiale til at implementere optimeret partitionering mellem software og hardware co-design for bedre ydeevne i den nærmeste fremtid. 

Desuden har nyere forskning foreslået brugen af ​​en telefonbaseret transducer til talegenkendelsessystemer, og forslaget sigter mod at erstatte LSTM-prædiktorer med Conv1D-lag for at reducere beregningsbehovet på edge-enheder. Når det blev implementeret, gav forslaget positive resultater, da SVD eller Singular Value Decomposition havde komprimeret modellen med succes, hvorimod brugen af ​​WFST eller Weighted Finite State Transducers-baseret dekodning resulterede i mere fleksibilitet i modelforbedringsbias. 

Mange fremtrædende applikationer af talegenkendelse som virtuelle eller stemmeassistenter, live undertekster og stemmekommandoer bruger ML-teknikker til at fungere. Populære stemmeassistenter som i øjeblikket som Siri og Google Assistant pinger cloud-platformen, hver gang de modtager nogle data, og det skaber betydelige bekymringer relateret til privatliv og datasikkerhed. TinyML er en levedygtig løsning på problemet, da det sigter mod at udføre talegenkendelse på enheder og eliminere behovet for at migrere data til cloud-platforme. En af måderne til at opnå talegenkendelse på enheden er at bruge Tiny Transducer, en talegenkendelsesmodel, der bruger et DFSMN- eller Deep Feed-Forward Sequential Memory Block-lag koblet med et Conv1D-lag i stedet for LSTM-lagene for at nedbringe beregningskravene , og netværksparametre. 

Høreapparater

Høretab er et stort sundhedsproblem over hele kloden, og menneskers evne til at høre lyde svækkes generelt, efterhånden som de bliver ældre, og det er et stort problem i lande, der håndterer en aldrende befolkning, herunder Kina, Japan og Sydkorea. Høreapparater fungerer lige nu efter det simple princip at forstærke alle inputlyde fra omgivelserne, hvilket gør det svært for personen at skelne eller skelne mellem den ønskede lyd, især i et støjende miljø. 

TinyML kan være den levedygtige løsning på dette problem, da brug af en TinyLSTM-model, der bruger talegenkendelsesalgoritme til høreapparatenheder, kan hjælpe brugerne med at skelne mellem forskellige lyde. 

Visionsbaserede applikationer

TinyML har potentialet til at spille en afgørende rolle i behandlingen computersyn baseret datasæt, fordi for hurtigere output skal disse datasæt behandles på selve edge-platformen. For at opnå dette møder TinyML-modellen de praktiske udfordringer, man står over for, mens man træner modellen ved hjælp af OpenMV H7-mikrocontrollerkortet. Udviklerne foreslog også en arkitektur til at detektere amerikansk tegnsprog ved hjælp af en ARM Cortex M7 mikrocontroller, der kun virker med 496KB rammebuffer RAM. 

Implementeringen af ​​TinyML til computervision baseret applikation på edge-platforme krævede, at udviklere skulle overvinde den store udfordring ved CNN eller Convolutional Neural Networks med en høj generaliseringsfejl og høj trænings- og testnøjagtighed. Implementeringen generaliserede dog ikke effektivt til billeder inden for nye use cases samt baggrunde med støj. Når udviklerne brugte interpolationsforøgelsesmetoden, gav modellen en nøjagtighedsscore på over 98 % på testdata og omkring 75 % i generalisering. 

Ydermere blev det observeret, at når udviklerne brugte interpolationsforøgelsesmetoden, var der et fald i modellens nøjagtighed under kvantisering, men samtidig var der også et boost i modellens inferenshastighed og klassifikationsgeneralisering. Udviklerne foreslog også en metode til yderligere at øge nøjagtigheden af ​​generaliseringsmodeltræning på data opnået fra en række forskellige kilder og teste ydeevnen for at undersøge muligheden for at implementere den på kantplatforme som bærbare smarture. 

Endvidere yderligere undersøgelser vedr CNN indikerede, at det er muligt at implementere og opnå ønskværdige resultater med CNN-arkitektur på enheder med begrænsede ressourcer. For nylig var udviklere i stand til at udvikle en ramme til detektering af medicinske ansigtsmasker på en ARM Cortex M7 mikrocontroller med begrænsede ressourcer ved hjælp af TensorFlow lite med minimale hukommelsesfodspor. Modelstørrelsen efter kvantisering var omkring 138 KB, mens interferenshastigheden på målkortet var omkring 30 FPS. 

En anden applikation af TinyML til computersynsbaseret applikation er at implementere en gestusgenkendelsesenhed, der kan spændes fast til en stok for at hjælpe synshandicappede med at navigere let gennem deres daglige liv. For at designe det brugte udviklerne gestusdatasættet og brugte datasættet til at træne ProtoNN-modellen med en klassifikationsalgoritme. Resultaterne opnået fra opsætningen var nøjagtige, designet var billigt, og det leverede tilfredsstillende resultater. 

En anden væsentlig anvendelse af TinyML er i industrien for selvkørende og autonome køretøjer på grund af manglen på ressourcer og indbygget beregningskraft. For at løse problemet introducerede udviklere en lukket løkke-læringsmetode bygget på TinyCNN-modellen, der foreslog en online-prædiktormodel, der fanger billedet under kørslen. Det største problem, som udviklere stod over for, når de implementerede TinyML til autonom kørsel, var, at beslutningsmodellen, der var trænet til at arbejde på offline data, muligvis ikke fungerer lige godt, når de håndterer online data. For fuldt ud at maksimere anvendelsen af ​​autonome biler og selvkørende biler, bør modellen ideelt set være i stand til at tilpasse sig realtidsdataene. 

Datamønsterklassificering og komprimering

En af de største udfordringer ved den nuværende TinyML-ramme er at lette dens tilpasning til online træningsdata. For at løse problemet har udviklere foreslået en metode kendt som TinyOL eller TinyML Online Learning for at tillade træning med trinvis online læring på mikrocontroller-enheder, hvilket gør det muligt for modellen at opdatere på IoT-kantenheder. Implementeringen blev opnået ved hjælp af programmeringssproget C++, og et ekstra lag blev tilføjet til TinyOL-arkitekturen. 

Ydermere udførte udviklere også auto-indkodningen af ​​Arduino Nano 33 BLE-sensorkortet, og den trænede model var i stand til at klassificere nye datamønstre. Ydermere omfattede udviklingsarbejdet at designe effektive og mere optimerede algoritmer til de neurale netværk for at understøtte enhedstræningsmønstre online. 

Forskning i TinyOL og TinyML har vist, at antallet af aktiveringslag har været et stort problem for IoT-edge-enheder, der har begrænsede ressourcer. For at løse problemet introducerede udviklere den nye TinyTL eller Tiny Transfer Learning-model for at gøre brugen af ​​hukommelse over IoT-kantenheder meget mere effektiv og undgå brugen af ​​mellemliggende lag til aktiveringsformål. Derudover introducerede udviklere også et helt nyt bias-modul kendt som "lite-restmodul” for at maksimere tilpasningsmulighederne og selvfølgelig tillade featureudtrækkere at opdage resterende feature maps. 

Sammenlignet med fuld netværksfinjustering var resultaterne til fordel for TinyTL-arkitekturen, da resultaterne viste, at TinyTL reducerede hukommelsesomkostningerne omkring 6.5 gange med moderat nøjagtighedstab. Da det sidste lag blev finjusteret, havde TinyML forbedret nøjagtigheden med 34 % med moderat nøjagtighedstab. 

Det har forskning i datakomprimering desuden vist datakomprimeringsalgoritmer skal administrere de indsamlede data på en bærbar enhed, og for at opnå det samme foreslog udviklerne TAC eller Tiny Anomaly Compressor. TAC'en var i stand til at udkonkurrere SDT eller Swing Door Trending og DCT eller Discrete Cosine Transform algoritmer. Derudover overgik TAC-algoritmen både SDT- og DCT-algoritmerne ved at opnå en maksimal kompressionsrate på over 98% og have det overlegne peak-signal-til-støj-forhold ud af de tre algoritmer. 

Sundhedsdiagnose

Den globale Covid-19-pandemi åbnede nye muligheder for implementering af TinyML, da det nu er en essentiel praksis at kontinuerligt opdage luftvejssymptomer relateret til hoste og forkølelse. For at sikre uafbrudt overvågning har udviklere foreslået en CNN-model Tiny RespNet, der opererer på en multi-model indstilling, og modellen er implementeret over en Xilinx Artix-7 100t FPGA, der tillader enheden at behandle informationen parallelt, har en høj effektivitet, og lavt strømforbrug. Derudover tager TinyResp-modellen også tale fra patienter, lydoptagelser og information om demografi som input til klassificering, og de hosterelaterede symptomer på en patient klassificeres ved hjælp af tre forskellige datasæt. 

Desuden har udviklere også foreslået en model, der er i stand til at køre deep learning-beregninger på edge-enheder, en TinyML-model ved navn TinyDL. TinyDL-modellen kan implementeres på edge-enheder som smartwatches og wearables til helbredsdiagnose og er også i stand til at udføre ydelsesanalyse for at reducere båndbredde, latens og energiforbrug. For at opnå udrulningen af ​​TinyDL på håndholdte enheder blev en LSTM-model designet og trænet specifikt til en bærbar enhed, og den blev tilført indsamlede data som input. Modellen har en nøjagtighedsscore på omkring 75 til 80 %, og den var også i stand til at arbejde med data uden for enheden. Disse modeller, der kører på edge-enheder, viste potentialet til at løse de aktuelle udfordringer, som IoT-enhederne står over for. 

Endelig har udviklere også foreslået en anden applikation til at overvåge ældre menneskers sundhed ved at estimere og analysere deres kropsstillinger. Modellen bruger den agnostiske ramme på enheden, der gør det muligt for modellen at muliggøre validering og hurtig fostring til at udføre tilpasninger. Modellen implementerede kropsstillingsdetektionsalgoritmer kombineret med ansigtets vartegn for at detektere spatiotemporale kropsstillinger i realtid. 

EdgeComputing

En af de vigtigste applikationer af TinyML er inden for edge computing som med stigningen i brugen af ​​IoT-enheder til at forbinde enheder over hele verden, det er vigtigt at konfigurere edge-enheder, da det vil hjælpe med at reducere belastningen over cloud-arkitekturerne . Disse edge-enheder vil indeholde individuelle datacentre, der vil give dem mulighed for at udføre højniveau-beregning på selve enheden i stedet for at stole på cloud-arkitekturen. Som et resultat vil det hjælpe med at reducere afhængigheden af ​​skyen, reducere latens, forbedre brugersikkerhed og privatliv og også reducere båndbredde. 

Edge-enheder, der bruger TinyML-algoritmerne, hjælper med at løse de aktuelle begrænsninger relateret til strøm-, computer- og hukommelseskrav, og det er diskuteret på billedet nedenfor. 

Ydermere kan TinyML også forbedre brugen og anvendelsen af ​​ubemandede luftfartøjer eller UAV'er ved at adressere de nuværende begrænsninger, som disse maskiner står over for. Brugen af ​​TinyML kan give udviklere mulighed for at implementere en energieffektiv enhed med lav latency og høj computerkraft, der kan fungere som en controller for disse UAV'er. 

Brain-Computer Interface eller BCI

TinyML har betydelige anvendelser i sundhedssektoren, og det kan vise sig at være yderst gavnligt på forskellige områder, herunder kræft- og tumordetektion, sundhedsforudsigelser ved hjælp af EKG- og EEG-signaler og følelsesmæssig intelligens. Brugen af ​​TinyML kan tillade Adaptive Deep Brain Stimulation eller aDBS at tilpasse sig med succes til kliniske tilpasninger. Brugen af ​​TinyMl kan også give aDBS mulighed for at identificere sygdomsrelaterede biomærker og deres symptomer ved hjælp af invasive optagelser af hjernens signaler. 

Ydermere omfatter sundhedsindustrien ofte indsamling af en stor mængde data om en patient, og disse data skal så behandles for at nå frem til specifikke løsninger til behandling af en patient i de tidlige stadier af en sygdom. Som et resultat er det afgørende at bygge et system, der ikke kun er yderst effektivt, men også meget sikkert. Når vi kombinerer IoT-applikationen med TinyML-modellen, opstår et nyt felt, der hedder H-IoT eller Healthcare Internet of Things, og de vigtigste anvendelser af H-IoT er diagnose, overvågning, logistik, spredningskontrol og hjælpesystemer. Hvis vi ønsker at udvikle enheder, der er i stand til at detektere og analysere en patients helbred på afstand, er det vigtigt at udvikle et system, der har en global tilgængelighed og en lav latenstid. 

Autonome køretøjer

Endelig kan TinyML have udbredte applikationer i den autonome køretøjsindustri, da disse køretøjer kan bruges på forskellige måder, herunder menneskelig sporing, militære formål og har industrielle applikationer. Disse køretøjer har et primært krav om at kunne identificere objekter effektivt, når objektet bliver afsøgt. 

Fra nu af er autonome køretøjer og autonom kørsel en ret kompleks opgave, især når man udvikler mini- eller små køretøjer. Den seneste udvikling har vist potentiale til at forbedre anvendelsen af ​​autonom kørsel til minibiler ved at bruge en CNN-arkitektur og implementere modellen over GAP8 MCI. 

Udfordringer

TinyML er et relativt nyere koncept i AI- og ML-industrien, og på trods af fremskridtene er det stadig ikke så effektivt, som vi har brug for det til masseimplementering til edge- og IoT-enheder. 

Den største udfordring, som TinyML-enheder står over for i øjeblikket, er disse enheders strømforbrug. Ideelt set forventes embedded edge & IoT-enheder at have en batterilevetid, der strækker sig over 10 år. For eksempel, i ideel stand, formodes en IoT-enhed, der kører på et 2Ah-batteri, at have en batterilevetid på over 10 år, da enhedens strømforbrug er omkring 12 uen. Men i den givne tilstand, en IoT-arkitektur med en temperatursensor, en MCU-enhed og et WiFi-modul, ligger strømforbruget på omkring 176.4 mA, og med dette strømforbrug vil batteriet kun holde i omkring 11 timer, i stedet for af de nødvendige 10 års batterilevetid. 

Ressourcebegrænsninger

For at opretholde en algoritmes konsistens er det afgørende at opretholde strømtilgængelighed, og givet det nuværende scenarie er den begrænsede strømtilgængelighed til TinyML-enheder en kritisk udfordring. Desuden er hukommelsesbegrænsninger også en betydelig udfordring, da implementering af modeller ofte kræver en stor mængde hukommelse for at fungere effektivt og præcist. 

Hardware begrænsninger

Hardwarebegrænsninger gør det vanskeligt at implementere TinyML-algoritmer i bred skala på grund af hardwareenhedernes heterogenitet. Der er tusindvis af enheder, hver med deres egne hardwarespecifikationer og krav, og som følge heraf skal en TinyML-algoritme i øjeblikket justeres for hver enkelt enhed, hvilket gør masseimplementering til et stort problem. 

Datasæt begrænsninger

Et af de store problemer med TinyML-modeller er, at de ikke understøtter de eksisterende datasæt. Det er en udfordring for alle edge-enheder, da de indsamler data ved hjælp af eksterne sensorer, og disse enheder har ofte strøm- og energibegrænsninger. Derfor kan de eksisterende datasæt ikke bruges til at træne TinyML-modellerne effektivt. 

Afsluttende tanker

Udviklingen af ​​ML-teknikker har forårsaget en revolution og et perspektivskifte i IoT-økosystemet. Integrationen af ​​ML-modeller i IoT-enheder vil give disse edge-enheder mulighed for at træffe intelligente beslutninger på egen hånd uden nogen ekstern menneskelig input. Konventionelt har ML-modeller dog ofte høje strøm-, hukommelses- og computerkrav, der gør dem forenede til at blive implementeret på edge-enheder, der ofte er ressourcebegrænsede. 

Som et resultat blev en ny gren i AI dedikeret til brugen af ​​ML til IoT-enheder, og den blev betegnet som TinyML. TinyML er en ML-ramme, der gør det muligt for selv de ressourcebegrænsede enheder at udnytte kraften i AI og ML for at sikre højere nøjagtighed, intelligens og effektivitet. 

I denne artikel har vi talt om implementeringen af ​​TinyML-modeller på ressourcebegrænsede IoT-enheder, og denne implementering kræver træning af modellerne, implementering af modellerne på hardwaren og udførelse af kvantiseringsteknikker. Men i betragtning af det nuværende omfang har ML-modellerne, der er klar til at blive implementeret på IoT- og edge-enheder, flere kompleksiteter og begrænsninger, herunder hardware- og framework-kompatibilitetsproblemer. 

"En ingeniør af profession, en forfatter udenad". Kunal er en teknisk skribent med en dyb kærlighed og forståelse for AI og ML, dedikeret til at forenkle komplekse begreber på disse områder gennem sin engagerende og informative dokumentation.