Connect with us

Artificiell intelligens

TinyML: Applikationer, begränsningar och dess användning i IoT- och edge-enheter

mm

Under de senaste åren har artificiell intelligens (AI) och maskinlärning (ML) upplevt en meteorisk ökning av popularitet och applikationer, inte bara inom industrin utan också inom akademin. Men dagens ML- och AI-modeller har en stor begränsning: de kräver en enorm mängd beräknings- och processorkraft för att uppnå önskade resultat och precision. Detta begränsar ofta deras användning till högpresterande enheter med betydande beräkningskraft.

Men med tanke på de framsteg som har gjorts inom inbäddad systemteknik och den betydande utvecklingen inom Internet of Things-industrin, är det önskvärt att införa användningen av ML-tekniker och -koncept i en resursbegränsad inbäddad system för allomfattande intelligens. Önskan att använda ML-koncept i inbäddade och IoT-system är den primära motivationsfaktorn bakom utvecklingen av TinyML, en inbäddad ML-teknik som tillåter ML-modeller och -applikationer på flera resursbegränsade, strömbegränsade och billiga enheter. 

Men implementeringen av ML på resursbegränsade enheter har inte varit enkel, eftersom implementeringen av ML-modeller på enheter med låg beräkningskraft presenterar sina egna utmaningar i termer av optimering, processorkapacitet, tillförlitlighet, underhåll av modeller och mycket mer. 

I den här artikeln kommer vi att ta en djupare titt på TinyML-modellen och lära oss mer om dess bakgrund, de verktyg som stöder TinyML och applikationerna av TinyML med hjälp av avancerad teknik. Så låt oss börja. 

En introduktion till TinyML: Varför världen behöver TinyML

Internet of Things eller IoT-enheter syftar till att utnyttja edge-beräkning, en beräkningsparadigm som hänvisar till en mängd enheter och nätverk nära användaren för att möjliggöra sömlös och realtidsbearbetning av data från miljontals sensorer och enheter som är anslutna till varandra. En av de stora fördelarna med IoT-enheter är att de kräver låg beräknings- och processorkraft eftersom de kan distribueras vid nätverkskanten och därmed har en låg minnesavtryck. 

Dessutom är IoT-enheter starkt beroende av edge-plattformar för att samla in och sedan överföra data, eftersom dessa edge-enheter samlar in sensordata och sedan överför dem antingen till en närliggande plats eller molnplattformar för bearbetning. Edge-beräkningstekniken lagrar och utför beräkningar på data och tillhandahåller också den nödvändiga infrastrukturen för att stödja distribuerad beräkning. 

Implementeringen av edge-beräkning i IoT-enheter tillhandahåller

  1. Effektiv säkerhet, sekretess och tillförlitlighet för slutanvändarna. 
  2. Lägre fördröjning. 
  3. Högre tillgänglighet och svarstid för applikationer och tjänster. 

Dessutom, eftersom edge-enheter kan distribuera en samarbetsmetod mellan sensorer och molnet, kan data bearbetas vid nätverkskanten i stället för att bearbetas på molnplattformen. Detta kan resultera i effektiv datahantering, datapersistens, effektiv leverans och innehållscachning. Dessutom, för att implementera IoT i applikationer som hanterar H2M eller Human to Machine-interaktion och modern hälsovård, tillhandahåller edge-beräkning en möjlighet att förbättra nätverkstjänsterna avsevärt. 

Nylig forskning inom området IoT-edge-beräkning har visat potentialen att implementera maskinlärningstekniker i flera IoT-användningsfall. Men det stora problemet är att traditionella maskinlärningsmodeller ofta kräver stark beräknings- och processorkraft och hög minneskapacitet, vilket begränsar implementeringen av ML-modeller i IoT-enheter och -applikationer. 

Dessutom saknar edge-beräkningstekniken idag hög överföringskapacitet och effektiv strömsparande, vilket leder till heterogena system, vilket är den främsta anledningen till att det krävs en harmonisk och holistisk infrastruktur, främst för uppdatering, utbildning och distribution av ML-modeller. Arkitekturen som är utformad för inbäddade enheter utgör en annan utmaning, eftersom dessa arkitekturer beror på hårdvaru- och mjukvarukrav som varierar från enhet till enhet. Det är den främsta anledningen till att det är svårt att bygga en standard-ML-arkitektur för IoT-nätverk. 

Dessutom, i den nuvarande situationen, skickas de data som genereras av olika enheter till molnplattformar för bearbetning på grund av den beräkningsintensiva naturen hos nätverksimplementeringar. Dessutom är ML-modeller ofta beroende av djupinlärning, djupa neuronnät, applikationsspecifika integrerade kretsar (ASIC) och grafikprocessorer (GPU) för att bearbeta data och de har ofta höga krav på ström och minne. Att distribuera fullständiga ML-modeller på IoT-enheter är inte en livskraftig lösning på grund av den uppenbara bristen på beräknings- och processorkraft och begränsade lagringslösningar. 

Kraven på att miniaturisera lågströmsinbäddade enheter, kombinerat med att optimera ML-modeller för att göra dem mer ström- och minneseffektiva, har banat väg för TinyML, som syftar till att implementera ML-modeller och -praktiker på edge-IoT-enheter och -ramverk. TinyML möjliggör signalbehandling på IoT-enheter och tillhandahåller inbäddad intelligens, vilket eliminerar behovet av att överföra data till molnplattformar för bearbetning. En framgångsrik implementering av TinyML på IoT-enheter kan slutligen resultera i ökad sekretess och effektivitet samtidigt som den minskar driftskostnaderna. Dessutom, vad som gör TinyML mer tilltalande är att den, i händelse av otillräcklig anslutning, kan tillhandahålla lokala analyser. 

TinyML: Introduktion och översikt

TinyML är ett maskinlärningsverktyg som har förmågan att utföra analyser på enheten för olika sensoriska modaliteter som ljud, syn och tal. ML-modeller som byggs med TinyML-verktyget har låga krav på ström, minne och beräkningar, vilket gör dem lämpliga för inbäddade nätverk och enheter som drivs av batterier. Dessutom gör TinyML:s låga krav det till en idealisk lösning för att distribuera ML-modeller på IoT-ramverket.

I den nuvarande situationen möter molnbaserade ML-system flera svårigheter, inklusive säkerhets- och sekretessproblem, hög strömförbrukning, tillförlitlighets- och latensproblem, varför modeller på hårdvaru-mjukvaruplattformar är förinstallerade. Sensorer samlar in data som simulerar den fysiska världen och bearbetas sedan med en CPU eller MPU (Mikroprocessorenhet). MPU tillgodoser behoven av ML-analytiskt stöd som möjliggörs av edge-medvetna ML-nätverk och arkitektur. Edge-ML-arkitektur kommunicerar med ML-molnet för dataöverföring och implementeringen av TinyML kan resultera i en avsevärd teknisk framsteg. 

Det vore säkert att säga att TinyML är en kombination av programvara, hårdvara och algoritmer som fungerar i samklang med varandra för att leverera den önskade prestandan. Analog eller minnesbaserad dator kan krävas för att tillhandahålla en bättre och mer effektiv inlärningsupplevelse för hårdvara och IoT-enheter som inte stöder hårdvaruacceleratorer. När det gäller programvara kan applikationer som byggs med TinyML distribueras och implementeras på plattformar som Linux eller inbäddad Linux och på molnbaserad programvara. Slutligen måste applikationer och system som byggs på TinyML-algoritmen ha stöd för nya algoritmer som kräver låg minnesstorlek för att undvika hög minnesförbrukning. 

För att sammanfatta, applikationer som byggs med TinyML-verktyget måste optimera ML-principer och -metoder samt designa programvaran komprimerat, i närvaro av högkvalitativa data. Dessa data måste sedan skickas via binära filer som genereras med hjälp av modeller som tränats på maskiner med mycket större kapacitet och beräkningskraft. 

Dessutom måste system och applikationer som körs på TinyML-verktyget tillhandahålla hög noggrannhet när de utförs under stramare begränsningar, eftersom komprimerad programvara behövs för låg strömförbrukning som stöder TinyML-implikationer. Dessutom kan TinyML-applikationer eller moduler vara beroende av batteriström för att stödja deras drift på inbäddade edge-system. 

Med det sagt har TinyML-applikationer två grundläggande krav

  1. Förmåga att skala miljarder billiga inbäddade system. 
  2. Lagra koden på enhetens RAM med en kapacitet under några KB. 

TinyML: Applikationer med avancerad teknik

En av de främsta anledningarna till att TinyML är ett hett ämne inom AI- och ML-industrin är på grund av dess potentiella applikationer, inklusive vision- och talbaserade applikationer, hälsodiagnos, data mönsterkomprimering och -klassificering, hjärndatorgränssnitt och mer. 

Talbaserade applikationer

Tal kommunikation

Talbaserade applikationer förlitar sig vanligtvis på konventionella kommunikationsmetoder, där all data är viktig och överförs. Men på senare tid har semantisk kommunikation uppstått som ett alternativ till konventionell kommunikation, där endast meningen eller sammanhanget i data överförs. Semantisk kommunikation kan implementeras i talbaserade applikationer med hjälp av TinyML-metoder. 

Några av de mest populära applikationerna inom tal kommunikationsindustrin idag är talupptäckt, talförståelse, onlineinlärning, onlinelärande och målinriktad kommunikation. Dessa applikationer kräver vanligtvis hög strömförbrukning och har höga datakrav på värdenheter. För att övervinna dessa krav har en ny TinySpeech-bibliotek introducerats som tillåter utvecklare att bygga en lågberäkningsarkitektur som använder djupa konvolutionsnät för att bygga en låg lagringsanläggning. 

För att använda TinyML för tal förbättring, hanterade utvecklare först storleken på tal förbättringsmodellen, eftersom den var föremål för hårdvarubegränsningar och -begränsningar. För att hantera problemet distribuerades strukturerad beskärning och integer-kvantifiering för RNN eller återkommande neuronnät tal förbättringsmodell. Resultaten visade att modellens storlek minskades med cirka 12 gånger, medan operationerna minskades med cirka 3 gånger. Dessutom är det viktigt att resurser används effektivt, särskilt när de distribueras på resursbegränsade applikationer som kör röstigenkänning. 

Som ett resultat föreslogs en samdesignsmetod för TinyML-baserade röst- och talförståelseapplikationer. Utvecklarna använde fönsteroperationsfunktionen för att partitionera programvara och hårdvara på ett sätt som förbearbetar de råa ljuddata. Metoden tycktes fungera, eftersom resultaten indikerade en minskning av energiförbrukningen på hårdvaran. Slutligen finns det också potential att implementera optimerad partitionering mellan programvara och hårdvara samdesign för bättre prestanda i närtid. 

Dessutom har nylig forskning föreslagit användningen av en telefonbaserad transducer för talförståelsesystem och förslaget syftar till att ersätta LSTM-prediktorer med Conv1D-lager för att minska beräkningsbehoven på edge-enheter. När det implementerades returnerade förslaget positiva resultat, eftersom SVD eller singularvärdesförfall hade komprimerat modellen framgångsrikt, medan användningen av WFST eller viktade ändliga tillståndsautomater-baserad avkodning resulterade i större flexibilitet i modellförbättringsskevhet. 

Många framstående applikationer av talförståelse, som virtuella eller röstassistenter, live-undertexter och röstkommandon, använder ML-tekniker för att fungera. Populära röstassistenter som Siri och Google Assistant pingar molnplattformen varje gång de tar emot data, vilket skapar betydande problem relaterade till sekretess och datasäkerhet. TinyML är en livskraftig lösning på problemet, eftersom den syftar till att utföra talförståelse på enheter och eliminera behovet av att migrera data till molnplattformar. En av sätten att uppnå enhetsbaserad talförståelse är att använda Tiny Transducer, en talförståelsemodell som använder ett DFSMN eller djupt feed-forward-seqventiellt minnesblocklager kopplat till ett Conv1D-lager i stället för LSTM-lager för att minska beräkningskraven och nätverksparametrar. 

Hörapparater

Hörselnedsättning är ett stort hälsoproblem över hela världen och människans förmåga att höra ljud försvagas vanligtvis när de åldras, och det är ett stort problem i länder som hanterar en åldrande befolkning, inklusive Kina, Japan och Sydkorea. Hörapparater fungerar för närvarande på den enkla principen att förstärka all ingående ljud från omgivningen, vilket gör det svårt för personen att skilja eller särskilja mellan det önskade ljudet, särskilt i en bullrig miljö. 

TinyML kan vara en livskraftig lösning på problemet, eftersom användningen av en TinyLSTM-modell som använder talförståelsealgoritm för hörapparater kan hjälpa användarna att särskilja mellan olika ljud. 

Visionsbaserade applikationer

TinyML har potentialen att spela en avgörande roll vid bearbetning av datorseende baserade datamängder, eftersom dessa datamängder behöver bearbetas på edge-plattformen för snabbare utdata. För att uppnå detta möter TinyML-modellen de praktiska utmaningarna som uppstår under utbildningen av modellen med hjälp av OpenMV H7-mikrokontrollern. Utvecklarna föreslog också en arkitektur för att upptäcka amerikanskt teckenspråk med hjälp av en ARM Cortex M7-mikrokontroller som fungerar med endast 496 KB ram. 

Implementeringen av TinyML för datorseendeapplikationer på edge-plattformar krävde att utvecklare övervann den stora utmaningen med CNN eller konvolutionsneuronnät med hög generaliseringsfel och hög utbildnings- och testningsnoggrannhet. Men implementeringen generaliserade inte effektivt till bilder inom nya användningsfall och bakgrunder med brus. När utvecklarna använde interpolationsförstärkningsmetoden returnerade modellen en noggrannhet på över 98 % på testdata och cirka 75 % i generalisering. 

Dessutom observerades att när utvecklarna använde interpolationsförstärkningsmetoden, fanns det en minskning av modellens noggrannhet under kvantifiering, men samtidigt fanns det också en ökning av modellens inferenshastighet och klassificeringsgeneralisering. Utvecklarna föreslog också en metod för att ytterligare förbättra noggrannheten i generaliseringsmodellutbildning på data som erhållits från en mängd olika källor och testning av prestanda för att undersöka möjligheten att distribuera den på edge-plattformar som bärbara smartklockor. 

Dessutom visade ytterligare studier på CNN att det är möjligt att distribuera och uppnå önskade resultat med CNN-arkitektur på enheter med begränsade resurser. Nyligen kunde utvecklare utveckla ett ramverk för upptäckt av medicinska ansiktsmasker på en ARM Cortex M7-mikrokontroller med begränsade resurser med hjälp av TensorFlow Lite med minimala minnesavtryck. Modellstorleken efter kvantifiering var cirka 138 KB, medan inferenshastigheten på målplattan var cirka 30 FPS. 

En annan applikation av TinyML för datorseendeapplikationer är att implementera en gestigenkänning som kan fästas på en käpp för att hjälpa synskadade människor att navigera i sina dagliga liv lätt. För att utforma den använde utvecklarna gesterdatamängden och använde datamängden för att utbilda ProtoNN-modellen med en klassificeringsalgoritm. Resultaten som erhölls från konfigurationen var exakta, designen var lågkostnad och den levererade tillfredsställande resultat. 

En annan betydande applikation av TinyML är inom självkörande och autonoma fordon, på grund av bristen på resurser och ombordberäkningskraft. För att hantera problemet introducerade utvecklare en sluten loop-lärandemetod byggd på TinyCNN-modellen som föreslog en online-prediktor som fångar bilden i realtid. Det stora problemet som utvecklare mötte när de implementerade TinyML för autonom körning var att beslutsmodellen som tränades för att fungera på offline-data kanske inte fungerar lika bra när den hanterar online-data. För att fullständigt maximera applikationerna av autonoma bilar och självkörande fordon bör modellen idealiskt kunna anpassa sig till realtidsdata. 

Data mönster klassificering och komprimering

En av de största utmaningarna för den nuvarande TinyML-ramen är att möjliggöra den för att anpassa sig till online-träningsdata. För att hantera problemet har utvecklare föreslagit en metod som kallas TinyOL eller TinyML Online Learning, som tillåter utbildning med inkrementell online-inlärning på mikrokontrollenheter, vilket möjliggör att modellen uppdateras på IoT-edge-enheter. Implementeringen uppnåddes med hjälp av C++-programmeringsspråket och en ytterligare lager lades till i TinyOL-arkitekturen. 

Dessutom utförde utvecklare auto-kodning av Arduino Nano 33 BLE-sensorn och den utbildade modellen kunde klassificera nya data mönster. Dessutom ingick utvecklingsarbetet i att utforma effektiva och mer optimerade algoritmer för neuronnät för att stödja enhetsinlärning online. 

Forskning inom TinyOL och TinyML har visat att antalet aktiveringslager har varit ett stort problem för IoT-edge-enheter med begränsade resurser. För att hantera problemet introducerade utvecklare den nya TinyTL eller Tiny Transfer Learning-modellen för att göra minnesanvändningen på IoT-edge-enheter mer effektiv och undvika användningen av mellanliggande lager för aktiveringsändamål. Dessutom introducerade utvecklare en helt ny biasmodul som kallas “lite-residualmodul” för att maximera anpassningsförmågan och samtidigt tillåta funktionsuttagare att upptäcka restfunktionskartor. 

När den jämfördes med fullständig nätverksfinjustering var resultaten till fördel för TinyTL-arkitekturen, eftersom resultaten visade att TinyTL minskade minnesöverbelastningen med cirka 6,5 gånger med måttlig noggrannhetsförlust. När den sista lagern justerades förbättrades TinyML noggrannheten med 34 % med måttlig noggrannhetsförlust. 

Dessutom har forskning om datakomprimering visat att datakomprimeringsalgoritmer måste hantera de insamlade data på en bärbar enhet och för att uppnå detta föreslog utvecklarna TAC eller Tiny Anomaly Compressor. TAC kunde överträffa SDT eller Swing Door Trending och DCT eller Discrete Cosine Transform-algoritmer. Dessutom överträffade TAC-algoritmen både SDT- och DCT-algoritmerna genom att uppnå en maximal komprimeringsgrad på över 98 % och ha den högsta topp-signal-brus-förhållande av de tre algoritmerna. 

Hälsodiagnos

Covid-19-pandemin öppnade nya möjligheter för implementeringen av TinyML, eftersom det nu är en viktig praxis att kontinuerligt upptäcka andningsrelaterade symtom som förkylning. För att säkerställa oavbruten övervakning har utvecklare föreslagit en CNN-modell Tiny RespNet som fungerar i en multimodellinställning och modellen distribueras på en Xilinx Artix-7 100t FPGA som tillåter enheten att bearbeta informationen parallellt, har hög effektivitet och låg strömförbrukning. Dessutom tar TinyResp-modellen också patientens tal, ljudinspelningar och demografisk information som indata för att klassificera och hostrelaterade symtom på en patient klassificeras med hjälp av tre distinkta datamängder. 

Dessutom har utvecklare också föreslagit en modell som kan köras på edge-enheter, en TinyML-modell som kallas TinyDL. TinyDL-modellen kan distribueras på edge-enheter som smartklockor och bärbara enheter för hälsodiagnos och är också kapabel att utföra prestandaanalys för att minska bandbredd, latens och energiförbrukning. För att uppnå distributionen av TinyDL på handhållna enheter utformades och tränades en LSTM-modell specifikt för en bärbar enhet och den matades med insamlade data som indata. Modellen har en noggrannhet på cirka 75 till 80 % och den kunde fungera med data utanför enheten. Dessa modeller som körs på edge-enheter visade potentialen att lösa de nuvarande utmaningarna som IoT-enheter står inför. 

Slutligen har utvecklare också föreslagit en annan applikation för att övervaka äldres hälsa genom att uppskatta och analysera deras kroppsställningar. Modellen använder en agnostisk ram på enheten som tillåter modellen att möjliggöra validering och snabb anpassning för att utföra anpassningar. Modellen implementerade kroppsställningsdetekteringsalgoritmer kopplade till ansiktslandmärken för att upptäcka rumsliga kroppsställningar i realtid. 

Edge-beräkning

En av de största applikationerna av TinyML är inom området edge-beräkning, eftersom det med ökningen av användningen av IoT-enheter för att ansluta enheter över hela världen, är det viktigt att etablera edge-enheter, eftersom det kommer att bidra till att minska belastningen på molnarkitekturerna. Dessa edge-enheter kommer att ha individuella datacenter som tillåter dem att utföra högnivåberäkningar på enheten själv, snarare än att förlita sig på molnarkitekturen. Som ett resultat kommer det att bidra till att minska beroendet av molnet, minska latens, förbättra användarsäkerhet och -sekretess och också minska bandbredd. 

Edge-enheter som använder TinyML-algoritmer kommer att bidra till att lösa de nuvarande begränsningarna relaterade till ström, beräkning och minneskrav och det diskuteras i bilden nedan. 

Dessutom kan TinyML också förbättra användningen och applikationen av obemannade luftfartyg eller UAV:er genom att hantera de nuvarande begränsningarna som dessa maskiner står inför. Användningen av TinyML kan tillåta utvecklare att implementera en energisnål enhet med låg latens och hög beräkningskraft som kan fungera som en kontroller för dessa UAV:er. 

Hjärndatorgränssnitt eller BCI

TinyML har betydande applikationer inom hälso- och sjukvårdsindustrin och det kan visa sig vara mycket fördelaktigt i olika områden, inklusive cancer- och tumörupptäckt, hälsoprediktion med hjälp av ECG- och EEG-signaler och emotionell intelligens. Användningen av TinyML kan tillåta den adaptiva djupa hjärnstimuleringen eller aDBS att anpassa sig till kliniska anpassningar. Användningen av TinyML kan också tillåta aDBS att identifiera sjukdomsrelaterade biomarkörer och deras symtom med hjälp av invasiva inspelningar av hjärnsignaler. 

Dessutom ingår hälso- och sjukvårdsindustrin ofta i insamlingen av en stor mängd patientdata och dessa data måste sedan bearbetas för att nå specifika lösningar för patientens behandling i de tidiga stadierna av en sjukdom. Som ett resultat är det viktigt att bygga ett system som inte bara är högeffektivt, utan också högt säkert. När vi kombinerar IoT-applikationer med TinyML-modellen föds ett nytt område som kallas H-IoT eller Hälsans Internet of Things och de viktigaste applikationerna av H-IoT är diagnos, övervakning, logistik, spridningskontroll och hjälpande system. Om vi vill utveckla enheter som kan upptäcka och analysera en patients hälsa på distans, är det viktigt att utveckla ett system som har global tillgänglighet och låg latens. 

Självkörande fordon

Slutligen kan TinyML ha omfattande applikationer inom den självkörande fordonsindustrin, eftersom dessa fordon kan användas på olika sätt, inklusive människospårning, militära ändamål och har industriella applikationer. Dessa fordon har ett primärt krav på att kunna identifiera objekt effektivt när objektet söks. 

För närvarande är självkörande fordon och autonom körning en ganska komplex uppgift, särskilt när man utvecklar mini- eller små fordon. Nyliga framsteg har visat potentialen att förbättra applikationen av autonom körning för mini-fordon med hjälp av en CNN-arkitektur och distribuera modellen på GAP8 MCI. 

Utmaningar

TinyML är ett relativt nytt koncept inom AI- och ML-industrin och trots framstegen är det fortfarande inte så effektivt som vi behöver för massdistribution till edge- och IoT-enheter. 

Den största utmaningen som TinyML-enheter för närvarande står inför är strömförbrukningen hos dessa enheter. Idealiskt sett förväntas inbäddade edge- och IoT-enheter ha en batterilivslängd som sträcker sig över 10 år. Till exempel, i idealiska förhållanden, en IoT-enhet som körs på en 2Ah-batteri förväntas ha en batterilivslängd på över 10 år, under förutsättning att strömförbrukningen för enheten är cirka 12 ua. Men i den givna situationen, en IoT-arkitektur med en temperatursensor, en MCU-enhet och en WiFi-modul, står strömförbrukningen på cirka 176,4 mA och med denna strömförbrukning kommer batteriet att vara i drift i endast cirka 11 timmar, i stället för de krävda 10 årens batterilivslängd. 

Resursbegränsningar

För att upprätthålla en algoritmisk konsekvens är det viktigt att upprätthålla strömtillgänglighet och med tanke på den nuvarande situationen är den begränsade strömtillgängligheten för TinyML-enheter en kritisk utmaning. Dessutom är minnesbegränsningar också en betydande utmaning, eftersom distributionen av modeller ofta kräver en stor mängd minne för att fungera effektivt och korrekt. 

Hårdvarubegränsningar

Hårdvarubegränsningar gör det svårt att distribuera TinyML-algoritmer i stor skala på grund av heterogeniteten hos hårdvaruenheter. Det finns tusentals enheter, var och en med sina egna hårdvaruspecifikationer och krav och som ett resultat behöver en TinyML-algoritm för närvarande justeras för varje enskild enhet, vilket gör massdistribution till ett stort problem. 

Datamängdsbegränsningar

En av de största problemen med TinyML-modeller är att de inte stöder de befintliga datamängderna. Det är en utmaning för alla edge-enheter, eftersom de samlar in data med hjälp av externa sensorer och dessa enheter ofta har ström- och energibegränsningar. Därför kan de befintliga datamängderna inte användas för att effektivt utbilda TinyML-modellerna. 

Slutliga tankar

Utvecklingen av ML-tekniker har orsakat en revolution och en förändring av perspektiv inom IoT-ekosystemet. Integrationen av ML-modeller i IoT-enheter kommer att tillåta dessa edge-enheter att fatta intelligenta beslut på egen hand utan någon extern mänsklig inmatning. Men konventionellt sett har ML-modeller ofta höga krav på ström, minne och beräkningar, vilket gör dem olämpliga för distribution på edge-enheter som ofta är resursbegränsade. 

Som ett resultat dedikerades en ny gren inom AI till användningen av ML för IoT-enheter och den benämndes som TinyML. TinyML är ett ML-ramverk som tillåter även resursbegränsade enheter att utnyttja kraften hos AI och ML för att säkerställa högre noggrannhet, intelligens och effektivitet. 

I den här artikeln har vi talat om implementeringen av TinyML-modeller på resursbegränsade IoT-enheter och denna implementering kräver utbildning av modeller, distribution av modeller på hårdvaran och utförande av kvantifieringstekniker. Men med tanke på den nuvarande omfattningen har ML-modellerna som är redo att distribueras på IoT- och edge-enheter flera komplexiteter och begränsningar, inklusive hårdvaru- och ramverkskompatibilitetsproblem. 

En ingenjör till yrket, en författare av hjärtat. Kunal är en teknisk skribent med ett djupt kärlek och förståelse för AI och ML, dedikerad till att förenkla komplexa begrepp inom dessa områden genom sin engagerande och informativa dokumentation.