Connect with us

ブレイン・マシン・インターフェース

エンジニアがAIベースの手のジェスチャー認識システムを開発

mm

カリフォルニア大学バークレー校のエンジニアたちは、前腕で検出された電気信号に基づいて手のジェスチャーを認識できるデバイスを開発しました。この新たに開発されたシステムは、ウェアラブル生体センサーと人工知能(AI)の成果であり、義肢の制御や人間とコンピューターのインタラクションの向上につながる可能性があります。 Ali Moinは設計チームの一員であり、カリフォルニア大学バークレー校電気工学・コンピューターサイエンス学部の博士課程学生です。Moinはまた、12月21日にオンライン学術誌Nature Electronicsに掲載された研究論文の共同筆頭著者でもあります。 「義肢はこのテクノロジーの重要な応用例の一つですが、それ以外にも、コンピューターとコミュニケーションを取る非常に直感的な方法を提供します」とMoinは述べています。「手のジェスチャーを読み取ることは、人間とコンピューターのインタラクションを改善する一つの方法です。そして、例えばカメラやコンピュータービジョンを使うなど、他の方法もありますが、これは個人のプライバシーも守る優れた解決策です。」

手のジェスチャー認識システム

チームは、システム開発中にカリフォルニア大学バークレー校の電気工学教授Ana Ariasと協力しました。彼らは共同で、前腕の64箇所の異なるポイントで電気信号を読み取ることができる柔軟なアームバンドを設計・作成しました。これらの電気信号はその後、AIアルゴリズムがプログラムされた電子チップに送られます。このアルゴリズムは、特定の手のジェスチャーから生じる前腕の信号パターンを識別できます。 このアルゴリズムは21種類の個別の手のジェスチャーを識別することができました。 「手の筋肉を収縮させたいとき、脳は首と肩のニューロンを介して腕と手の筋繊維へ電気信号を送ります」とMoinは説明します。「基本的に、カフの電極が感知しているのはこの電界です。どの正確な繊維が活性化されたかを特定できるほど精密ではありませんが、高密度の電極により、特定のパターンを認識することを学ぶことができるのです。」 AIアルゴリズムはまず、腕の電気信号とそれに対応する手のジェスチャーを識別することを学習します。これには、ユーザーがそれらのジェスチャーを行いながらデバイスを装着する必要があります。さらに一歩進んで、このシステムはハイパーディメンショナル・コンピューティング・アルゴリズムに依存しています。これは、継続的に自己更新を行う高度なAIです。この高度な技術により、システムは腕の動きや発汗などの新しい情報で自己修正することが可能になります。 「ジェスチャー認識では、信号は時間とともに変化し、それはモデルの性能に影響を与える可能性があります」とMoinは言います。「デバイス上でモデルを更新することで、分類精度を大幅に向上させることができました。」

チップ上でのローカルコンピューティング

このデバイスのもう一つの印象的な特徴は、すべての計算がチップ上で行われることです。つまり、個人データが他のデバイスに送信されることはありません。これにより、計算時間が短縮され、生体データが保護されます。 Jan Rabaeyは、カリフォルニア大学バークレー校のDonald O. Pedersen Distinguished Professor of Electrical Engineeringであり、論文のシニア著者です。 「AmazonやAppleがアルゴリズムを作成するとき、彼らはクラウドで多くのソフトウェアを実行してモデルを作成し、その後そのモデルがあなたのデバイスにダウンロードされます」とJan Rabaeyは述べています。「問題は、その後あなたはその特定のモデルに縛られてしまうことです。私たちのアプローチでは、学習がデバイス自体で行われるプロセスを実装しました。そしてそれは非常に迅速です:一度行うだけで仕事を始めます。しかし、より多くの回数行えば、さらに良くなることができます。つまり、継続的に学習するのです。それは人間が行う方法と同じです。」 Rabaeyによれば、このデバイスはわずかな変更を加えるだけで商用化される可能性があります。 「これらの技術のほとんどは既に他の場所に存在しますが、このデバイスのユニークな点は、生体センシング、信号処理と解釈、人工知能を、比較的小さく柔軟で消費電力の少ない一つのシステムに統合していることです」とRabaeyは述べています。

Alex McFarlandは、人工知能の最新動向を探求するAIジャーナリスト兼ライターです。彼は世界中の数多くのAIスタートアップや出版物と協力してきました。