Kunstig intelligens
TinyML: Anvendelser, Begrænsninger og Dets Brug i IoT & Edge-Enheder

I de seneste få år har kunstig intelligens (AI) og maskinlæring (ML) oplevet en meteoritisk stigning i popularitet og anvendelser, ikke kun i industrien, men også i akademiske kredse. however, i dag har ML- og AI-modellerne en større begrænsning: de kræver en enorm mængde beregnings- og proceskraft for at opnå de ønskede resultater og nøjagtighed. Dette begrænser ofte deres brug til højkapacitetsenheder med betydelig beregningskraft.
Men med tanke på fremskridtene inden for indlejret systemteknologi og betydelig udvikling inden for Internet of Things-industrien, er det ønskeligt at inkorporere brugen af ML-teknikker og -koncepter i et ressourcebegrænset indlejret system til almindelig intelligens. Ønsket om at bruge ML-koncepter i indlejrede og IoT-systemer er den primære motivationsfaktor bag udviklingen af TinyML, en indlejret ML-teknik, der tillader ML-modeller og -anvendelser på multiple ressourcebegrænsede, strømbegrænsede og billige enheder.
Men implementeringen af ML på ressourcebegrænsede enheder har ikke været enkel, da implementering af ML-modeller på enheder med lav beregningskraft præsenterer sine egne udfordringer i forhold til optimering, proceskapacitet, pålidelighed, vedligeholdelse af modeller og meget mere.
I denne artikel vil vi dykke dybere ind i TinyML-modellen og lære mere om dens baggrund, værktøjerne, der understøtter TinyML, og anvendelserne af TinyML ved hjælp af avancerede teknologier. Så lad os starte.
En Introduktion til TinyML: Hvorfor Verden Har Brug for TinyML
Internet of Things eller IoT-enheder sigter mod at udnytte edge-computing, en beregningsparadigme, der refererer til en række enheder og netværk nær brugeren for at muliggøre en sammenhængende og realtidsbehandling af data fra millioner af sensorer og enheder, der er forbundet til hinanden.
Desuden afhænger IoT-enhederne stærkt af edge-platforme til at indsamle og transmittere data, da disse edge-enheder indsamler sensordata og transmitterer dem enten til en nærliggende lokalitet eller cloud-platforme for behandling. Edge-computing-teknologien gemmer og udfører beregninger på dataene og tilbyder også den nødvendige infrastruktur til at understøtte den distribuerede beregning.
Implementeringen af edge-computing i IoT-enheder giver
- Effektiv sikkerhed, privatliv og pålidelighed for slutbrugerne.
- Lavere forsinkelse.
- Højere tilgængelighed og gennemstrømningssvar til anvendelser og tjenester.
Desuden, da edge-enheder kan udnytte en samarbejdende teknik mellem sensorer og cloud, kan dataprocesseringen udføres på netkanten i stedet for på cloud-platformen. Dette kan resultere i effektiv datastyring, datapersistens, effektiv levering og indholdscaching. Yderligere kan edge-computing tilbyde en måde at forbedre netværkstjenesterne betydeligt i IoT-anvendelser, der handler om H2M eller Human to Machine-interaktion og moderne sundhedspleje.
Seneste forskning i IoT-edge-computing har demonstreret potentialet for at implementere ML-teknikker i flere IoT-anvendelser. Men det store problem er, at traditionelle ML-modeller ofte kræver stærk beregnings- og proceskraft og høj hukommelseskapacitet, hvilket begrænser implementeringen af ML-modeller i IoT-enheder og -anvendelser.
Desuden mangler edge-computing-teknologien i dag i høj transmissionskapacitet og effektiv strømspare, hvilket fører til heterogene systemer, som er den primære årsag til behovet for harmonisk og holistisk infrastruktur, primært til opdatering, træning og implementering af ML-modeller. Arkitekturen, der er designet til indlejrede enheder, udgør en anden udfordring, da disse arkitekturer afhænger af hardware- og softwarekrav, der varierer fra enhed til enhed. Det er den primære årsag til, at det er svært at opbygge en standard ML-arkitektur for IoT-netværk.
Desuden sendes data, der er genereret af forskellige enheder, i dag til cloud-platforme for behandling på grund af den beregningsintensive natur af netværksimplementeringer. Yderligere er ML-modeller ofte afhængige af dyb læring, dybe neurale netværk, applikationsspecifikke integrerede kredsløb (ASIC’er) og grafikprocessorer (GPU’er) til behandling af data, og de har ofte en højere strøm- og hukommelseskrav. At implementere fuldt udviklede ML-modeller på IoT-enheder er ikke en viable løsning på grund af den åbenlyse mangel på beregnings- og proceskraft og begrænsede lagringsløsninger.
Behovet for at miniaturisere lavstrømsindlejrede enheder kombineret med at optimere ML-modeller for at gøre dem mere strøm- og hukommelseseffektive har banet vejen for TinyML, der sigter mod at implementere ML-modeller og -praktikker på edge-IoT-enheder og -rammer. TinyML muliggør signalbehandling på IoT-enheder og giver indlejret intelligens, hvilket eliminerer behovet for at overføre data til cloud-platforme for behandling. En succesfuld implementering af TinyML på IoT-enheder kan ultimat resultere i øget privatliv og effektivitet, samtidig med at den reducerer driftsomkostningerne. Yderligere er det, hvad der gør TinyML mere tiltalende, at den i tilfælde af utilstrækkelig forbindelse kan tilbyde on-premise-analyse.
TinyML: Introduktion og Overblik
TinyML er et maskinlæringsværktøj, der har evnen til at udføre på-enhed-analyse for forskellige sansningmodi som lyd, syn og tale. ML-modeller, der er bygget på TinyML-værktøjet, har lav strøm, hukommelse og beregningskrav, hvilket gør dem egnede til indlejrede netværk og enheder, der kører på batterikraft. Yderligere gør TinyML’s lave krav det til en ideal løsning til at implementere ML-modeller på IoT-rammen.
I den nuværende situation møder cloud-baserede ML-systemer nogle udfordringer, herunder sikkerheds- og privatlivsproblemer, høj strømforbrug, afhængighed og forsinkelsesproblemer, hvilket er årsagen til, at modeller på hardware-software-platforme er forudindstalleret. Sensorer indsamler data, der simulerer den fysiske verden, og derefter behandles ved hjælp af en CPU eller MPU (Microprocessing Unit). MPU dækker ML-analysestøtte, der er aktiveret af edge-bevidste ML-netværk og -arkitektur. Edge-ML-arkitektur kommunikerer med ML-cloud for overførsel af data, og implementeringen af TinyML kan resultere i en betydelig fremgang i teknologien.
Det ville være sikkert at sige, at TinyML er en kombination af software, hardware og algoritmer, der arbejder i takt med hinanden for at levere den ønskede præstation. Analog eller hukommelsesbaseret beregning kan være nødvendig for at give en bedre og mere effektiv læringserfaring for hardware og IoT-enheder, der ikke understøtter hardware-acceleratorer. Hvad angår software, kan anvendelserne, der er bygget ved hjælp af TinyML, implementeres og udrulles over platforme som Linux eller indlejret Linux og over cloud-aktiveret software. Endelig skal anvendelser og systemer, der er bygget på TinyML-algoritmen, have støtte fra nye algoritmer, der kræver lav hukommelsessizede modeller for at undgå høj hukommelsesforbrug.
For at samle tingene op, skal anvendelser, der er bygget ved hjælp af TinyML-værktøjet, optimere ML-principper og -metoder samt designe softwaren kompakt, i nærværelse af højkvalitetsdata. Denne data skal derefter overføres gennem binærfiler, der er genereret ved hjælp af modeller, der er trænet på maskiner med langt større kapacitet og beregningskraft.
Yderligere skal systemer og anvendelser, der kører på TinyML-værktøjet, give høj nøjagtighed, når de udføres under strammere begrænsninger, da kompakt software er nødvendig for lav strømforbrug, der understøtter TinyML-implikationer. Yderligere kan TinyML-anvendelser eller -moduler afhænge af batterikraft til at understøtte deres operationer på edge-indlejrede systemer.
Med det sagt har TinyML-anvendelser to grundlæggende krav
- Evnen til at skala til milliarder af billige indlejrede systemer.
- At gemme koden på enhedens RAM med en kapacitet under få KB.
Anvendelser af TinyML ved hjælp af Avancerede Teknologier
En af de største årsager til, at TinyML er et varmt emne i AI- og ML-industrien, er på grund af dens potentielle anvendelser, herunder vision- og talebaserede anvendelser, sundhedsdiagnose, datapatternklassifikation og -kompression, hjern-dator-grænseflade og selvstændige køretøjer.
Talebaserede Anvendelser
Talekommunikation
Typisk afhænger talebaserede anvendelser af konventionelle kommunikationsmetoder, hvor alle data er vigtige, og det overføres. Men i de seneste år er semantisk kommunikation dukket op som en alternativ til konventionel kommunikation, da semantisk kommunikation kun overfører betydningen eller konteksten af data. Semantisk kommunikation kan implementeres på talebaserede anvendelser ved hjælp af TinyML-metoder.
Nogle af de mest populære anvendelser i talekommunikationsindustrien i dag er talegenkendelse, taleigenkendelse, online-læring, online-undervisning og målrettet kommunikation. Disse anvendelser kræver typisk høj strømforbrug og har også høj datakrav på værtenheden. For at overvinde disse krav er der introduceret en ny TinySpeech-bibliotek, der giver udviklere mulighed for at bygge en lavt beregningsarkitektur, der anvender dybe convolutionelle netværk til at bygge en lav lagringsfacilitet.
For at anvende TinyML til taleforbedring skal udviklere først løse størrelsesproblemet for taleforbedringsmodellen, da det er underlagt hardwarebegrænsninger og -begrænsninger. For at tackle problemet blev struktureret beskæring og integer-kvantificering for RNN eller Recurrent Neural Network taleforbedringsmodel anvendt. Resultaterne viste, at modellens størrelse kunne reduceres med næsten 12 gange, mens operationerne kunne reduceres med næsten 3 gange. Yderligere er det vigtigt, at ressourcerne anvendes effektivt, især når de anvendes på ressourcebegrænsede anvendelser, der udfører stemme-genkendelsesanvendelser.
Som resultat heraf blev en co-design-metode foreslået til TinyML-baserede tale- og stemme-genkendelsesanvendelser. Udviklerne anvendte en vindueoperation til at partitionere software og hardware på en måde, der kan forbehandle den rå lyddata. Metoden virkede, da resultaterne viste en reduktion i energiforbrug på hardwaren. Endelig er der også potentiale for at implementere optimeret partitionering mellem software og hardware co-design for bedre præstation i den nærmeste fremtid.
Yderligere har ny forskning foreslået at anvende en telefonbaseret transducer til talegenkendelsessystemer, og forslaget sigter mod at erstatte LSTM-forudsigelser med Conv1D-lag for at reducere beregningsbehovene på edge-enheder. Da det blev implementeret, returnerede forslaget positive resultater, da SVD eller Singular Value Decomposition havde komprimeret modellen med succes, mens anvendelsen af WFST eller Weighted Finite State Transducers-baseret afkodning resulterede i mere fleksibilitet i modelforbedringsskævhed.
En masse prominente anvendelser af talegenkendelse, som f.eks. virtuelle eller stemmeassistenter, live-undertekstning og stemmekommandoer, anvender ML-teknikker for at fungere. Populære stemmeassistenter som Siri og Google Assistant pinger cloud-platformen hver gang, de modtager nogen data, og det skaber betydelige bekymringer i forhold til privatliv og datasikkerhed. TinyML er en viable løsning til problemet, da det sigter mod at udføre talegenkendelse på enheder og eliminere behovet for at overføre data til cloud-platforme. En af måderne at opnå på-enhed-talegenkendelse er at anvende Tiny Transducer, en talegenkendelsesmodel, der anvender en DFSMN eller Deep Feed-Forward Sequential Memory Block-lag kombineret med en Conv1D-lag i stedet for LSTM-lag for at reducere beregningskravene og netværksparametrene.
Hørehjælpeapparater
Høretab er et større sundhedsproblem på verdensplan, og menneskers evne til at høre lyde svækkes generelt, når de bliver ældre, og det er et større problem i lande, der har en aldrende befolkning, herunder Kina, Japan og Sydkorea. Hørehjælpeapparater fungerer i dag på den simple princip, at alle indgangslyde fra omgivelserne forstærkes, hvilket gør det svært for personen at skelne eller differentiere mellem den ønskede lyd, især i en støjende omgang.
TinyML kan være en viable løsning for dette problem, da anvendelsen af en TinyLSTM-model, der anvender en talegenkendelsesalgoritme til hørehjælpeapparater, kan hjælpe brugerne med at skelne mellem forskellige lyde.
Visionsbaserede Anvendelser
TinyML har potentialet til at spille en afgørende rolle i behandlingen af computer vision-baserede datasæt, da disse datasæt kræver behandling på edge-platformen selv for hurtigere output. For at opnå dette møder TinyML-modellen de praktiske udfordringer, der er forbundet med træning af modellen ved hjælp af OpenMV H7-mikrocontroller-bordet. Udviklerne foreslog også en arkitektur til at detektere amerikansk tegnsprog ved hjælp af en ARM Cortex M7-mikrocontroller, der kun fungerer med 496KB af frame-buffer RAM.
Implementeringen af TinyML til computer vision-baserede anvendelser på edge-platforme krævede, at udviklerne overvandt den større udfordring, der bestod i at konvolutionsneurale netværk (CNN) havde en høj generaliseringsfejl og høj trænings- og testningsnøjagtighed. Men implementeringen generaliserede ikke effektivt til billeder i nye anvendelsesscenarier samt baggrunde med støj. Da udviklerne anvendte interpolationsforstærkningsmetoden, returnerede modellen en nøjagtighed på over 98% på testdata og omkring 75% i generalisering.

Yderligere blev det observeret, at da udviklerne anvendte interpolationsforstærkningsmetoden, var der en reduktion i modellens nøjagtighed under kvantificering, men samtidig var der også en øgning i modellens inferenshastighed og klassifikationsgeneralisering. Udviklerne foreslog også en metode til yderligere at øge nøjagtigheden af generaliseringsmodeltræning på data, der er erhvervet fra en række forskellige kilder, og testning af præstationen for at udforske muligheden for at implementere den på edge-platforme som f.eks. bærbare smarture.
Yderligere studier af CNN indikerede, at det er muligt at implementere og opnå ønskede resultater med CNN-arkitektur på enheder med begrænsede ressourcer. For nylig lykkedes det udviklere at udvikle en ramme for detektion af medicinske ansigtsmasker på en ARM Cortex M7-mikrocontroller med begrænsede ressourcer ved hjælp af TensorFlow Lite med minimal hukommelsesaftryk. Modellens størrelse efter kvantificering var omkring 138 KB, mens inferenshastigheden på målpladen var omkring 30 billeder per sekund.
En anden anvendelse af TinyML til computer vision-baserede anvendelser er at implementere en gestigenkendelsesenhed, der kan klammes til en stok for at hjælpe synsbesværet personer med at navigere gennem deres daglige liv lettere. For at designe det anvendte udviklerne gesturedatasættet og anvendte datasættet til at træne ProtoNN-modellen med en klassifikationsalgoritme. Resultaterne, der blev opnået fra opsætningen, var nøjagtige, designet var lavprist og leverede tilfredsstillende resultater.
En anden betydelig anvendelse af TinyML er i selvstændige og autonome køretøjer, da der er mangel på ressourcer og ombordberegningseffekt. For at tackle problemet introducerede udviklerne en lukket læringmetode bygget på TinyCNN-modellen, der foreslog en online-forudsigelsesmodel, der optager billedet i løbetiden. Det større problem, som udviklerne stødte på, da de implementerede TinyML til autonom kørsel, var, at beslutningsmodellen, der var trænet til at fungere på offline-data, måske ikke ville fungere lige så godt, når den havde med online-data at gøre. For fuldt at maksimere anvendelserne af selvstændige biler og køretøjer skal modellen ideelt være i stand til at tilpasse sig realtidsdata.
Data Pattern Klassifikation og Kompression
En af de største udfordringer for den nuværende TinyML-ramme er at muliggøre den for at tilpasse sig online-træningsdata. For at tackle problemet har udviklerne foreslået en metode kendt som TinyOL eller TinyML Online Learning, der giver mulighed for træning med inkrementel online-læring på mikrocontrollerenheder, hvilket giver mulighed for at opdatere modellen på IoT-edge-enheder. Implementeringen blev opnået ved hjælp af C++-programmeringssproget, og en ekstra lag blev tilføjet til TinyOL-arkitekturen.
Yderligere udførte udviklerne auto-kodningen af Arduino Nano 33 BLE-sensorbordet, og den trænede model var i stand til at klassificere nye datapatterns. Yderligere omfattede udviklingsarbejdet design af effektive og mere optimerede algoritmer for neurale netværk til at understøtte enhedstræning på online-basis.
Forskning i TinyOL og TinyML har indikeret, at antallet af aktiveringslag har været et større problem for IoT-edge-enheder med begrænsede ressourcer. For at tackle problemet introducerede udviklerne den nye TinyTL eller Tiny Transfer Learning-model for at gøre brugen af hukommelse på IoT-edge-enheder mere effektiv og undgå brugen af mellemaktiveringslag. Yderligere introducerede udviklerne en helt ny bias-modul kendt som “lite-residual-modul” for at maksimere tilpasningsfærdighederne og samtidig give mulighed for, at feature-udtrækningsværktøjer kan opdage residual-funktioner.
Da resultaterne blev sammenlignet med fuld netværksfinjustering, var de til fordel for TinyTL-arkitekturen, da resultaterne viste, at TinyTL reducerede hukommelsesoverhængningen med omkring 6,5 gange med moderat nøjagtigheds-tab. Da den sidste lag blev finjusteret, forbedrede TinyML nøjagtigheden med 34% med moderat nøjagtighedstab.
Yderligere har forskning i datakompression indikeret, at datakompressionsalgoritmer skal kunne styre den indsamlede data på en bærbart enhed, og for at opnå dette foreslog udviklerne TAC eller Tiny Anomaly Compressor. TAC var i stand til at overgå SDT eller Swing Door Trending og DCT eller Discrete Cosine Transform-algoritmer. Yderligere overgik TAC-algoritmen både SDT- og DCT-algoritmerne ved at opnå en maksimal kompressionsrate på over 98% og havde den bedste peak signal-til-støj-forhold af de tre algoritmer.
Sundhedsdiagnose
Covid-19-pandemien åbnede nye muligheder for implementeringen af TinyML, da det nu er en essentiel praksis at kontinuerligt registrere åndedrætsrelaterede symptomer som hoste og forkølelse. For at sikre ubrudt overvågning foreslog udviklerne en CNN-model Tiny RespNet, der fungerer på en multi-model-indstilling, og modellen er implementeret på en Xilinx Artix-7 100t FPGA, der giver enheden mulighed for at behandle informationen parallelt, har en høj effektivitet og lav strømforbrug. Yderligere tager TinyResp-modellen også patientens tale, lydoptagelser og demografiske oplysninger som input for at klassificere og hosterelaterede symptomer hos en patient, der klassificeres ved hjælp af tre forskellige datasæt.
Yderligere har udviklerne foreslået en model, der kan udføre dyb læring på edge-enheder, en TinyML-model kendt som TinyDL. TinyDL-modellen kan implementeres på edge-enheder som f.eks. smarture og bærbare enheder til sundhedsdiagnose og er også i stand til at udføre præstationsanalyse for at reducere båndbredde, forsinkelse og energiforbrug. For at implementere TinyDL på håndholdte enheder blev en LSTM-model designet og trænet specifikt til en bærbart enhed, og den blev fødet indsamlet data som input. Modellen havde en nøjagtighed på omkring 75 til 80% og var i stand til at fungere med off-enhed-data.
Endelig har udviklerne også foreslået en anden anvendelse til at overvåge ældre menneskers sundhed ved at estimere og analysere deres kropsstillinger. Modellen anvender en agnostisk ramme på enheden, der giver modellen mulighed for at aktivere validering og hurtig tilpasning for at udføre tilpasninger. Modellen implementerede kropsstilling-algoritmer kombineret med ansigtslandemærker for at detektere rummeligt-tidslige kropsstillinger i realtid.
Edge Computing
En af de største anvendelser af TinyML er i feltet edge-computing, da det med stigende brug af IoT-enheder til at forbinde enheder på verdensplan er essentiel at oprette edge-enheder, da det vil hjælpe med at reducere belastningen på cloud-arkitekturerne. Disse edge-enheder vil have individuelle datacentre, der giver dem mulighed for at udføre højniveau-beregninger på enheden selv i stedet for at afhænge af cloud-arkitekturen.
Som resultat heraf vil det hjælpe med at reducere afhængigheden af cloud, reducere forsinkelse, forbedre brugerens sikkerhed og privatliv samt reducere båndbredde. Edge-enheder, der anvender TinyML-algoritmer, vil hjælpe med at løse de nuværende begrænsninger i forhold til strøm, beregning og hukommelseskrav, og det er diskuteret i billedet nedenfor.

Yderligere kan TinyML også forbedre anvendelsen og brugen af UAS eller Unmanned Aerial Systems ved at løse de nuværende begrænsninger, som disse maskiner står over for. Anvendelsen af TinyML kan give udviklerne mulighed for at implementere en energi-effektiv enhed med lav forsinkelse og høj beregningskraft, der kan fungere som en controller for disse UAS.
Hjerne-Computer-Grænseflade eller BCI
TinyML har betydelige anvendelser i sundhedsindustrien og kan være meget nyttig i forskellige områder, herunder kræft- og tumor-detektion, sundhedsforudsigelser ved hjælp af ECG- og EEG-signaler og emotionel intelligens. Anvendelsen af TinyML kan give mulighed for, at Adaptive Deep Brain Stimulation eller aDBS kan tilpasse sig kliniske tilpasninger. Anvendelsen af TinyML kan også give mulighed for, at aDBS kan identificere sygdomsrelaterede biomarkører og symptomer ved hjælp af invasive optagelser af hjernesignaler.
Yderligere kan sundhedsindustrien ofte inkludere indsamlingen af en stor mængde data om en patient, og denne data skal derefter behandles for at nå specifikke løsninger for patientens behandling i de tidlige stadier af en sygdom. Som resultat heraf er det essentiel at opbygge et system, der ikke kun er højtydende, men også højtsikret. Når vi kombinerer IoT-anvendelser med TinyML-modellen, fødes et nyt felt, der hedder H-IoT eller Healthcare Internet of Things, og de primære anvendelser af H-IoT er diagnose, overvågning, logistik, spredningskontrol og assistive systemer. Hvis vi ønsker at udvikle enheder, der kan registrere og analysere en patients sundhed på afstand, er det essentiel at opbygge et system, der har global tilgængelighed og lav forsinkelse.

Autonome Køretøjer
Endelig kan TinyML have bred anvendelse i autonome køretøjer, da disse køretøjer kan anvendes på forskellig vis, herunder menneske-sporing, militære formål og har industrielle anvendelser. Disse køretøjer har en primær krav til at kunne identificere objekter effektivt, når objektet søges.
I øjeblikket er autonome køretøjer og autonom kørsel en ret kompleks opgave, især når der udvikles mini- eller små køretøjer. Ny udvikling har vist potentiale til at forbedre anvendelsen af autonom kørsel til mini-køretøjer ved at anvende en CNN-arkitektur og implementere modellen på GAP8 MCI.
Udfordringer
TinyML er et relativt nyt koncept i AI- og ML-industrien, og på trods af fremskridtene er det stadig ikke så effektivt, som vi har brug for til massedeployment på edge- og IoT-enheder.
Den største udfordring, som TinyML-enheder i øjeblikket står over for, er strømforbrug. Ideelt set forventes indlejrede edge- og IoT-enheder at have en batterilevetid, der strækker sig over 10 år. For eksempel, i ideelle betingelser, en IoT-enhed, der kører på en 2Ah-batteri, forventes at have en batterilevetid på over 10 år, hvis strømforbrug er omkring 12 uA. Men i den nuværende tilstand, en IoT-arkitektur med en temperatursensor, en MCU-enhed og en WiFi-modul, er strømforbrug på omkring 176,4 mA, og med dette strømforbrug vil batteriet kun vare i omkring 11 timer i stedet for de krævede 10 års batterilevetid.
Ressourcebegrænsninger
For at opretholde en algoritmes konsistens er det vigtigt at opretholde strømtilgængelighed, og i den nuværende situation er den begrænsede strømtilgængelighed for TinyML-enheder en kritisk udfordring. Yderligere er hukommelsesbegrænsninger også en betydelig udfordring, da implementering af modeller ofte kræver en stor mængde hukommelse for at fungere effektivt og nøjagtigt.
Hardwarebegrænsninger
Hardwarebegrænsninger gør det svært at implementere TinyML-algoritmer på bred skala, da der er tusindvis af enheder, hver med deres egne hardware-specifikationer og -krav, og som resultat heraf skal en TinyML-algoritme i øjeblikket tilpasses for hver enkelt enhed, hvilket gør massedeployment til en stor udfordring.
Datasetbegrænsninger
En af de største udfordringer med TinyML-modeller er, at de ikke understøtter de eksisterende datasæt. Det er en udfordring for alle edge-enheder, da de indsamler data ved hjælp af eksterne sensorer, og disse enheder ofte har strøm- og energibegrænsninger. Derfor kan de eksisterende datasæt ikke anvendes til at træne TinyML-modellerne effektivt.
Endelige Tanker
Udviklingen af ML-teknikker har ført til en revolution og en skift i perspektiv i IoT-økosystemet. Integrationen af ML-modeller i IoT-enheder vil give disse edge-enheder mulighed for at træffe intelligente beslutninger på egen hånd uden nogen ydre menneskelig indgang. Men konventionelt har ML-modeller ofte høj strøm-, hukommelses- og beregningskrav, hvilket gør dem upassende til at implementere på edge-enheder, der ofte er ressourcebegrænsede.
Som resultat heraf blev en ny gren i AI dedikeret til brugen af ML til IoT-enheder, og det blev betegnet som TinyML. TinyML er en ML-ramme, der giver selv ressourcebegrænsede enheder mulighed for at udnytte kraften fra AI og ML for at sikre højere nøjagtighed, intelligens og effektivitet.
I denne artikel har vi talt om implementeringen af TinyML-modeller på ressourcebegrænsede IoT-enheder, og denne implementering kræver træning af modeller, implementering af modeller på hardwaren og udførelse af kvantificeringsteknikker. Men på grund af den nuværende omfang har ML-modellerne, der er klar til at implementere på IoT- og edge-enheder, flere kompleksiteter og begrænsninger, herunder hardware- og ramme-kompatibilitetsproblemer.










