スタブ TinyML: アプリケーション、制限、IoT およびエッジ デバイスでの使用 - Unite.AI
私達と接続

Artificial Intelligence

TinyML: アプリケーション、制限、IoT およびエッジ デバイスでの使用

mm
更新中 on

ここ数年、人工知能(AI)と 機械学習 (ML) は、業界だけでなく学術界でも人気と応用が急速に高まっています。 ただし、今日の ML モデルと AI モデルには大きな制限が XNUMX つあります。それは、望ましい結果と精度を達成するには、膨大な量のコンピューティング能力と処理能力が必要であるということです。 そのため、多くの場合、その使用は、相当なコンピューティング能力を備えた高機能デバイスに限定されます。

しかし、組み込みシステム技術の進歩とモノのインターネット業界の大幅な発展を考慮すると、ユビキタス インテリジェンスのためにリソースに制約のある組み込みシステムに ML 技術と概念の使用を組み込むことが望ましいです。 ML の概念を組み込みおよび IoT システムに使用したいという要望が、TinyML の開発の背後にある主な動機となっています。TinyML は、複数のリソースに制約があり、電力に制約があり、安価なデバイス上で ML モデルとアプリケーションを可能にする組み込み ML 技術です。 

ただし、コンピューティング能力の低いデバイスに ML モデルを実装すると、最適化、処理能力、信頼性、モデルのメンテナンスなどの点で独自の課題が生じるため、リソースに制約のあるデバイスへの ML の実装は簡単ではありませんでした。 

この記事では、TinyML モデルをさらに深く掘り下げ、その背景、TinyML をサポートするツール、および高度なテクノロジーを使用した TinyML のアプリケーションについて詳しく学びます。 それでは始めましょう。 

TinyML の概要 : 世界が TinyML を必要とする理由

モノのインターネット (IoT デバイス) は、ユーザーの近くにあるさまざまなデバイスやネットワークを指すコンピューティング パラダイムであるエッジ コンピューティングを活用して、相互接続された何百万ものセンサーやデバイスからのデータをシームレスかつリアルタイムに処理できるようにすることを目的としています。 IoT デバイスの主な利点の XNUMX つは、ネットワーク エッジに展開できるため、必要なコンピューティング能力と処理能力が低く、メモリ フットプリントが小さいことです。 

さらに、IoT デバイスは、エッジ デバイスがセンサー データを収集し、処理のために近くの場所またはクラウド プラットフォームに送信するため、データの収集と送信にエッジ プラットフォームに大きく依存しています。 エッジ コンピューティング テクノロジは、データを保存してコンピューティングを実行し、分散コンピューティングをサポートするために必要なインフラストラクチャも提供します。 

IoT デバイスにエッジ コンピューティングを実装すると、次のことが可能になります。

  1. エンドユーザーに対する効果的なセキュリティ、プライバシー、信頼性。 
  2. 遅延が少なくなります。 
  3. アプリケーションとサービスに対する可用性とスループットの応答性が向上します。 

さらに、エッジデバイスはセンサーとクラウド間の連携技術を導入できるため、データ処理をクラウドプラットフォームで行う代わりにネットワークエッジで行うことができます。 これにより、効果的なデータ管理、データの永続化、効果的な配信、およびコンテンツのキャッシュが実現します。 さらに、H2M または人間と機械のインタラクションや最新のヘルスケア エッジ コンピューティングを扱うアプリケーションに IoT を実装すると、ネットワーク サービスを大幅に改善する方法が提供されます。 

IoT エッジ コンピューティングの分野における最近の研究では、いくつかの IoT ユースケースで機械学習技術を実装できる可能性が実証されています。ただし、大きな問題は、従来の機械学習モデルでは多くの場合、強力なコンピューティング能力と処理能力、および IoT デバイスとアプリケーションでの ML モデルの実装が制限される高いメモリ容量を必要とすることです。 

さらに、今日のエッジ コンピューティング テクノロジには、高い伝送容量と効果的な省電力機能が欠けており、これが異種システムの原因となり、これが主に ML モデルの更新、トレーニング、デプロイのための調和のとれた総合的なインフラストラクチャの要件の背後にある主な理由です。 組み込みデバイス用に設計されたアーキテクチャは、デバイスごとに異なるハードウェアとソフトウェアの要件に依存するため、別の課題が生じます。 これが、IoT ネットワーク用の標準 ML アーキテクチャを構築することが難しい主な理由です。 

また、現在のシナリオでは、ネットワーク実装の計算集約的な性質により、さまざまなデバイスによって生成されたデータが処理のためにクラウド プラットフォームに送信されます。 さらに、ML モデルは、データ処理のためにディープラーニング、ディープ ニューラル ネットワーク、特定用途向け集積回路 (ASIC)、グラフィック プロセッシング ユニット (GPU) に依存することが多く、より高い電力とメモリ要件が必要になることがよくあります。 本格的な ML モデルを IoT デバイスに展開することは、コンピューティング能力と処理能力が明らかに不足しており、ストレージ ソリューションも限られているため、実行可能なソリューションではありません。 

低電力組み込みデバイスの小型化と、電力とメモリの効率を高めるための ML モデルの最適化への需要により、エッジ IoT デバイスとフレームワークに ML モデルと実践を実装することを目的とした TinyML への道が開かれました。 タイニーML IoT デバイスでの信号処理を可能にし、組み込みインテリジェンスを提供するため、処理のためにデータをクラウド プラットフォームに転送する必要がなくなります。 IoT デバイスへの TinyML の実装が成功すると、最終的には運用コストを削減しながらプライバシーと効率が向上します。 さらに、TinyML の魅力は、接続が不十分な場合でもオンプレミス分析を提供できることです。 

TinyML : 概要と概要

TinyML は、音声、視覚、音声などのさまざまなセンシング モダリティに対してオンデバイス分析を実行する機能を備えた機械学習ツールです。 TinyML ツールに基づいて構築された ML モデルは、電力、メモリ、コンピューティング要件が低いため、組み込みネットワークやバッテリ電源で動作するデバイスに適しています。 さらに、TinyML は要件が低いため、IoT フレームワークに ML モデルをデプロイするのに最適です。

現在のシナリオでは、クラウドベースの ML システムは、セキュリティとプライバシーの問題、高消費電力、信頼性、遅延の問題など、いくつかの困難に直面しているため、ハードウェアとソフトウェアのプラットフォーム上のモデルがプリインストールされています。 センサーは物理世界をシミュレートするデータを収集し、CPU または MPU (マイクロプロセッシング ユニット) を使用して処理します。 MPU は、エッジ対応の ML ネットワークとアーキテクチャによって実現される ML 分析サポートのニーズに応えます。 Edge ML アーキテクチャはデータ転送のために ML クラウドと通信し、TinyML の実装によりテクノロジーが大幅に進歩する可能性があります。 

TinyML は、望ましいパフォーマンスを実現するために相互に同期して動作するソフトウェア、ハードウェア、アルゴリズムの融合であると言っても過言ではありません。 ハードウェア アクセラレータをサポートしていないハードウェアおよび IoT デバイスに、より優れた効果的な学習エクスペリエンスを提供するには、アナログ コンピューティングまたはメモリ コンピューティングが必要になる場合があります。 ソフトウェアに関する限り、TinyML を使用して構築されたアプリケーションは、Linux や組み込み Linux などのプラットフォーム、およびクラウド対応ソフトウェア上に展開および実装できます。 最後に、TinyML アルゴリズムに基づいて構築されたアプリケーションとシステムは、大量のメモリ消費を避けるために低メモリ サイズのモデルを必要とする新しいアルゴリズムをサポートする必要があります。 

まとめると、TinyML ツールを使用して構築されたアプリケーションは、高品質のデータが存在する中でソフトウェアをコンパクトに設計するとともに、ML の原則と手法を最適化する必要があります。 このデータは、はるかに大きな容量と計算能力を備えたマシンでトレーニングされたモデルを使用して生成されたバイナリ ファイルを通じてフラッシュされる必要があります。 

さらに、TinyML ツール上で実行されるシステムとアプリケーションは、TinyML の影響をサポートする低消費電力のためにコンパクトなソフトウェアが必要となるため、より厳しい制約の下で実行する場合に高い精度を提供する必要があります。 さらに、TinyML アプリケーションまたはモジュールは、エッジ組み込みシステムでの動作をサポートするためにバッテリー電源に依存する場合があります。 

そうは言っても、TinyML アプリケーションには XNUMX つの基本的な要件があります。

  1. 数十億の安価な組み込みシステムを拡張する能力。 
  2. 数 KB 未満の容量でデバイスの RAM にコードを保存します。 

先端技術を活用したTinyMLの応用

TinyML が AI および ML 業界で注目のトピックである主な理由の XNUMX つは、視覚および音声ベースのアプリケーション、健康診断、データ パターンの圧縮と分類、脳制御インターフェイス、エッジ コンピューティング、フェノミクス、自己などの潜在的なアプリケーションのためです。 -車の運転など。 

音声ベースのアプリケーション

音声通信

通常、音声ベースのアプリケーションは、すべてのデータが重要であり、それが送信される従来の通信方法に依存します。 しかし、近年、セマンティック通信ではデータの意味やコンテキストのみが送信されるため、従来の通信に代わるセマンティック通信が登場しています。 TinyML 手法を使用して、音声ベースのアプリケーション間でセマンティック通信を実装できます。 

現在、音声通信業界で最も人気のあるアプリケーションには、音声検出、音声認識、オンライン学習、オンライン教育、目標指向のコミュニケーションなどがあります。 これらのアプリケーションは通常、消費電力が高く、ホスト デバイスでのデータ要件も高くなります。 これらの要件を克服するために、新しい TinySpeech ライブラリが導入されました。これにより、開発者は、深い畳み込みネットワークを使用して低計算ストレージ機能を構築する低計算アーキテクチャを構築できます。 

TinyML を音声強調に使用するために、開発者はまず音声強調モデルのサイズ設定に取り組みました。これは、ハードウェアの制限と制約の影響を受けるためです。この問題に取り組むために、RNN またはリカレント ニューラル ネットワーク音声強調モデルの構造化プルーニングと整数量子化が導入されました。結果は、モデルのサイズがほぼ 12 分の 3 に削減され、操作がほぼ XNUMX 分の XNUMX に削減されることを示唆しています。さらに、特に音声認識アプリケーションを実行するリソースに制約のあるアプリケーションに展開する場合は、リソースを効果的に利用することが重要です。 

その結果、プロセスを分割するために、TinyML ベースの音声および音声認識アプリケーション用の共同設計方法が提案されました。 開発者はウィンドウ処理を使用して、生の音声データを前処理する方法でソフトウェアとハ​​ードウェアを分割しました。 ハードウェアのエネルギー消費量の減少が結果から示されたため、この方法はうまく機能しているように見えました。 最後に、近い将来、パフォーマンスを向上させるために、ソフトウェアとハ​​ードウェアの共同設計の間で最適化されたパーティショニングを実装する可能性もあります。 

さらに、最近の研究では、音声認識システムに電話ベースのトランスデューサを使用することが提案されており、この提案は、LSTM 予測子を Conv1D 層に置き換えて、エッジ デバイスでの計算の必要性を軽減することを目的としています。 この提案が実装されると、SVD または特異値分解がモデルを正常に圧縮したため、肯定的な結果が返されました。一方、WFST または重み付き有限状態トランスデューサー ベースのデコードの使用により、モデル改善バイアスの柔軟性が向上しました。 

仮想アシスタントや音声アシスタント、ライブキャプション、音声コマンドなどの音声認識の多くの著名なアプリケーションは、ML 技術を使用して機能します。 現在、Siri や Google アシスタントなどの人気のある音声アシスタントは、データを受信するたびにクラウド プラットフォームに ping を送信するため、プライバシーとデータ セキュリティに関連する重大な懸念が生じます。 TinyML は、デバイス上で音声認識を実行し、データをクラウド プラットフォームに移行する必要性を排除することを目的としているため、この問題に対する実行可能な解決策です。 オンデバイス音声認識を実現する方法の 1 つは、LSTM 層の代わりに XNUMX つの ConvXNUMXD 層と結合された DFSMN またはディープ フィードフォワード シーケンシャル メモリ ブロック層を使用して計算要件を下げる音声認識モデルである Tiny Transducer を使用することです。 、およびネットワークパラメータ。 

補聴器

難聴は世界中で大きな健康上の懸念であり、人間の音を聞く能力は一般的に加齢とともに弱くなり、中国、日本、韓国など人口高齢化に取り組む国々では大きな問題となっています。 現在の補聴器は、周囲からのすべての入力音を増幅するという単純な原理で動作しているため、特に騒がしい環境では、必要な音を区別したり区別したりすることが困難になります。 

TinyML は、補聴器用の音声認識アルゴリズムを使用する TinyLSTM モデルを使用すると、ユーザーがさまざまな音を区別しやすくなるため、この問題に対する実行可能な解決策となる可能性があります。 

ビジョンベースのアプリケーション

TinyML は処理において重要な役割を果たす可能性を秘めています コンピュータビジョン ベースのデータセット。出力を高速化するには、これらのデータセットをエッジ プラットフォーム自体で処理する必要があるためです。 これを達成するために、TinyML モデルは、OpenMV H7 マイクロコントローラー ボードを使用してモデルをトレーニングする際に直面する実際的な課題に直面します。 開発者らはまた、7KB のフレームバッファ RAM でのみ動作する ARM Cortex M496 マイクロコントローラを利用してアメリカ手話を検出するアーキテクチャも提案しました。 

エッジ プラットフォーム上のコンピューター ビジョン ベースのアプリケーションに TinyML を実装するには、開発者は高い汎化誤差と高いトレーニングとテストの精度を伴う CNN または畳み込みニューラル ネットワークの大きな課題を克服する必要がありました。ただし、この実装は、ノイズのある背景だけでなく、新しいユースケース内の画像にも効果的に一般化されませんでした。開発者が補間拡張手法を使用した場合、モデルはテスト データで 98% 以上、一般化で約 75% の精度スコアを返しました。 

さらに、開発者が補間拡張手法を使用すると、量子化中にモデルの精度が低下しましたが、同時にモデルの推論速度と分類の一般化も向上したことが観察されました。 開発者らはまた、さまざまなソースから取得したデータに対する汎化モデルのトレーニングの精度をさらに向上させ、ポータブルスマートウォッチなどのエッジプラットフォームに導入する可能性を探るためにパフォーマンスをテストする方法も提案した。 

さらに、追加の研究 CNN リソースが限られているデバイス上でも CNN アーキテクチャを導入して望ましい結果を達成することが可能であることを示しました。 最近、開発者は、メモリ フットプリントを最小限に抑えた TensorFlow lite を使用して、限られたリソースで ARM Cortex M7 マイクロコントローラー上で医療用フェイス マスクを検出するためのフレームワークを開発することができました。 量子化後のモデル サイズは約 138 KB でしたが、ターゲット ボード上の干渉速度は約 30 FPS でした。 

コンピューター ビジョン ベースのアプリケーションに対する TinyML のもう XNUMX つの用途は、視覚障害のある人々が日常生活を容易にナビゲートできるように、杖にクランプできるジェスチャ認識デバイスを実装することです。 これを設計するために、開発者はジェスチャ データ セットを使用し、そのデータ セットを使用して分類アルゴリズムで ProtoNN モデルをトレーニングしました。 セットアップから得られた結果は正確で、設計は低コストで、満足のいく結果が得られました。 

TinyML のもう XNUMX つの重要な用途は、リソースと車載の計算能力が不足しているため、自動運転および自動運転車業界です。 この問題に取り組むために、開発者は、実行時に画像をキャプチャするオンライン予測モデルを提案する TinyCNN モデルに基づいて構築された閉ループ学習手法を導入しました。 自動運転用の TinyML を実装する際に開発者が直面した主な問題は、オフライン データで機能するようにトレーニングされた意思決定モデルが、オンライン データを扱う場合には同様に機能しない可能性があるということでした。 自動運転車や自動運転車のアプリケーションを最大限に活用するには、モデルがリアルタイム データに適応できることが理想的です。 

データパターンの分類と圧縮

現在の TinyML フレームワークの最大の課題の XNUMX つは、オンライン トレーニング データへの適応を容易にすることです。 この問題に取り組むために、開発者は、マイクロコントローラー ユニットでの増分オンライン学習によるトレーニングを可能にし、IoT エッジ デバイス上でモデルを更新できるようにする、TinyOL または TinyML オンライン学習として知られる方法を提案しました。 実装は C++ プログラミング言語を使用して実現され、追加のレイヤーが TinyOL アーキテクチャに追加されました。 

さらに、開発者は Arduino Nano 33 BLE センサー ボードの自動エンコーディングも実行し、トレーニングされたモデルは新しいデータ パターンを分類することができました。 さらに、開発作業には、オンラインでデバイスのトレーニング パターンをサポートするための、ニューラル ネットワークの効率的でより最適化されたアルゴリズムの設計も含まれます。 

TinyOL と TinyML の調査では、リソースに制約のある IoT エッジ デバイスにとって、アクティベーション レイヤーの数が大きな問題であることが示されています。この問題に取り組むために、開発者は新しい TinyTL または Tiny Transfer Learning モデルを導入して、IoT エッジ デバイス上のメモリの利用をより効果的にし、アクティベーション目的での中間層の使用を回避しました。さらに、開発者は「」として知られるまったく新しいバイアス モジュールも導入しました。ライト残存モジュール」適応能力を最大化するため、そしてもちろん、特徴抽出器が残りの特徴マップを発見できるようにします。 

完全なネットワーク微調整と比較すると、TinyTL アーキテクチャが適度な精度の損失を伴いながらメモリ オーバーヘッドを約 6.5 分の 34 に削減することが結果から示され、TinyTL アーキテクチャが有利な結果となりました。 最後のレイヤーが微調整されたとき、TinyML は中程度の精度の低下を伴いながら、精度を XNUMX% 向上させました。 

さらに、データ圧縮に関する研究では、次のことが示されています。 データ圧縮アルゴリズム 収集したデータはポータブル デバイスで管理する必要があり、これを実現するために、開発者は TAC (Tiny Anomaly Compressor) を提案しました。 TAC は、SDT または Swing Door Trending、および DCT または離散コサイン変換アルゴリズムを上回るパフォーマンスを発揮することができました。 さらに、TAC アルゴリズムは、98% を超える最大圧縮率を達成し、XNUMX つのアルゴリズムの中で優れたピーク信号対雑音比を持つため、SDT アルゴリズムと DCT アルゴリズムの両方を上回りました。 

健康診断

新型コロナウイルス感染症(Covid-19)の世界的なパンデミックにより、TinyML は現在、咳や風邪に関連する呼吸器症状を継続的に検出するために不可欠な実践となっており、導入の新たな機会が開かれました。 中断のない監視を確保するために、開発者はマルチモデル設定で動作する CNN モデル Tiny RespNet を提案しました。このモデルはザイリンクス Artix-7 100t FPGA 上に展開されており、デバイスが情報を並列処理でき、効率が高く、そして低消費電力。 さらに、TinyResp モデルは、患者の音声、音声録音、人口統計の情報も分類のための入力として受け取り、患者の咳関連症状は XNUMX つの区別されたデータセットを使用して分類されます。 

さらに、開発者は、エッジデバイス上でディープラーニング計算を実行できるモデル、TinyDL という名前の TinyML モデルも提案しています。 TinyDL モデルは、健康診断のためにスマートウォッチやウェアラブルなどのエッジ デバイスに導入でき、帯域幅、遅延、エネルギー消費を削減するためにパフォーマンス分析を実行することもできます。 ハンドヘルド デバイスでの TinyDL の展開を実現するために、ウェアラブル デバイス専用に LSTM モデルが設計およびトレーニングされ、収集されたデータが入力として供給されました。 このモデルの精度スコアは約 75 ~ 80% で、デバイス外のデータも処理できました。 エッジ デバイス上で実行されるこれらのモデルは、IoT デバイスが直面している現在の課題を解決できる可能性を示しました。 

最後に、開発者は、高齢者の体の姿勢を推定および分析することで、高齢者の健康状態を監視する別のアプリケーションも提案しています。 このモデルはデバイス上で不可知論的なフレームワークを使用しており、これによりモデルの検証と適応を実行するための迅速な育成が可能になります。 このモデルには、顔のランドマークと組み合わせた身体姿勢検出アルゴリズムが実装されており、時空間的な身体姿勢をリアルタイムで検出します。 

EdgeComputing

TinyML の主な用途の XNUMX つはエッジ コンピューティングの分野です。世界中のデバイスを接続するための IoT デバイスの使用が増加しているため、クラウド アーキテクチャの負荷を軽減するのに役立つため、エッジ デバイスのセットアップが不可欠です。 。 これらのエッジ デバイスは、クラウド アーキテクチャに依存するのではなく、デバイス自体で高度なコンピューティングを実行できる個別のデータ センターを備えています。 その結果、クラウドへの依存を減らし、遅延を減らし、ユーザーのセキュリティとプライバシーを強化し、帯域幅も削減するのに役立ちます。 

TinyML アルゴリズムを使用するエッジ デバイスは、電力、コンピューティング、メモリ要件に関連する現在の制約を解決するのに役立ちます。これについては、以下の図で説明します。 

さらに、TinyML は、無人航空機や UAV が直面している現在の制限に対処することで、その使用と応用を強化することもできます。 TinyML を使用すると、開発者は、これらの UAV のコントローラーとして機能する、低遅延で高いコンピューティング能力を備えたエネルギー効率の高いデバイスを実装できます。 

ブレイン コンピューター インターフェイス (BCI)

TinyML はヘルスケア業界で重要な用途があり、がんや腫瘍の検出、ECG や EEG 信号を使用した健康予測、心の知能指数などのさまざまな分野で非常に有益であることが証明されています。 TinyML を使用すると、適応型深部脳刺激 (aDBS) を臨床適応にうまく適応させることができます。 TinyMXNUMX を使用すると、aDBS が脳信号の侵襲的記録を使用して疾患関連のバイオマークとその症状を識別できるようになります。 

さらに、医療業界では患者の大量のデータを収集することが多く、病気の初期段階で患者を治療するための特定のソリューションを得るために、このデータを処理する必要があります。 そのため、効率性が高いだけでなく、安全性も高いシステムを構築することが重要です。 IoT アプリケーションと TinyML モデルを組み合わせると、H-IoT またはヘルスケア モノのインターネットと呼ばれる新しい分野が生まれます。H-IoT の主なアプリケーションは、診断、監視、物流、蔓延制御、支援システムです。 患者の健康状態をリモートで検出および分析できるデバイスを開発したい場合は、グローバルなアクセス性と低遅延を備えたシステムを開発することが不可欠です。 

自律車両

最後に、TinyML は自動運転車業界で広く応用できる可能性があります。これらの車両は人間の追跡、軍事目的、産業用途など、さまざまな方法で利用できるからです。 これらの車両には、物体を探索するときに効率的に物体を識別できるという主な要件があります。 

現時点では、自動運転車と自動運転は、特に軽自動車や小型車を開発する場合、かなり複雑な作業になります。 最近の開発では、CNN アーキテクチャを使用し、GAP8 MCI 上にモデルを展開することで、軽自動車の自動運転アプリケーションを改善できる可能性が示されています。 

課題

TinyML は AI および ML 業界では比較的新しい概念であり、進歩しているにもかかわらず、エッジおよび IoT デバイスの大規模導入に必要なほど効果的ではありません。 

TinyML デバイスが現在直面している最大の課題は、これらのデバイスの電力消費です。 理想的には、組み込みエッジおよび IoT デバイスのバッテリー寿命は 10 年以上であることが期待されます。 たとえば、理想的な状態では、2Ah バッテリーで動作する IoT デバイスのバッテリー寿命は、デバイスの消費電力が約 10 年であると想定されます。 ua. ただし、温度センサー、MCU ユニット、WiFi モジュールを備えた IoT アーキテクチャの特定の状態では、消費電流は約 176.4 mA であり、この電力消費では、バッテリーは約 11 時間しか持続しません。必要なバッテリー寿命は 10 年です。 

リソースの制約

アルゴリズムの一貫性を維持するには、電力の可用性を維持することが重要であり、現在のシナリオを考えると、TinyML デバイスの電力の可用性が制限されていることが重要な課題となります。 さらに、モデルのデプロイでは効果的かつ正確に動作させるために大量のメモリが必要になることが多いため、メモリ制限も大きな課題です。 

ハードウェアの制約

ハードウェアの制約により、ハードウェア デバイスの異質性により、TinyML アルゴリズムを大規模に展開することが困難になります。 何千ものデバイスがあり、それぞれに独自のハードウェア仕様と要件があるため、現在 TinyML アルゴリズムを個々のデバイスごとに調整する必要があり、大量導入が大きな問題となっています。 

データセットの制約

TinyML モデルの大きな問題の XNUMX つは、既存のデータ セットをサポートしていないことです。 外部センサーを使用してデータを収集するすべてのエッジ デバイスにとって、これは課題であり、これらのデバイスには電力とエネルギーの制約があることがよくあります。 したがって、既存のデータ セットを使用して TinyML モデルを効果的にトレーニングすることはできません。 

最終的な考え

ML 技術の発展は、IoT エコシステムに革命と視点の変化を引き起こしました。 IoT デバイスに ML モデルを統合すると、これらのエッジ デバイスは外部からの人間の入力なしで、独自にインテリジェントな意思決定を行うことができるようになります。 ただし、従来、ML モデルには多くの場合、高い電力、メモリ、およびコンピューティング要件があり、リソースが制約されることが多いエッジ デバイスにデプロイできるように統合されていました。 

その結果、AI の新しい分野は IoT デバイス向けの ML の使用に特化し、TinyML と呼ばれるようになりました。 TinyML は、リソースに制約のあるデバイスでも AI と ML の力を活用して、より高い精度、インテリジェンス、効率を確保できる ML フレームワークです。 

この記事では、リソースに制約のある IoT デバイスへの TinyML モデルの実装について説明しました。この実装には、モデルのトレーニング、ハードウェアへのモデルのデプロイ、および量子化手法の実行が必要です。 ただし、現在の範囲を考えると、IoT およびエッジ デバイスに展開する準備ができている ML モデルにはいくつかの複雑さがあり、ハードウェアやフレームワークの互換性の問題などの制約があります。 

「職業はエンジニア、心は作家」。 Kunal は、AI と ML に対する深い愛情と理解を備えたテクニカル ライターであり、魅力的で有益なドキュメントを通じてこれらの分野の複雑な概念を簡素化することに専念しています。