もはや「マイノリティ・リポート」は絵空事ではありません。 ジェスチャに基づく制御は、ユーザ・エクスペリエンスの向上や感染症予防対策の面でメリットをもたらします。 デモのために基本ジェスチャを識別する4つのクラスを作成しましたが、このモデルはあらゆるジェスチャを学習させることで最終ユーザに幅広い新機能を提供できます。 NanoEdge AI StudioはToF(Time-of-Flight)測距センサをサポートしていますが、このアプリケーションではレーダーなどのセンサを使用することもできます。
アプローチ
- カメラではなくToF測距センサを使用しています。 これにより処理する信号数が減り、必要な情報のみが得られます。
- 背景の影響を低減するために検出距離を20cmに設定しました。
- センサのサンプリング周波数は、通常の速度でジェスチャをキャプチャするために最大値(15Hz)に設定しています。
- 空測定(動きなし)を避けるために、クラスごとに1,200レコードのデータセットを作成しました。
- データ・ロギングは、NEAI Studioが動作するPCに接続された評価ボードで非常に簡単に管理できます。
- そして、NanoEdge AI Studioで「Nクラス分類」モデル(4クラス)を作成し、NUCLEO_F401RE(およびX-NUCLEO-53L5A1アドオン・ボード)で実際にテストしました。
センサ
ToF測距センサ:VL53L5CX
データ
4クラスのデータ:上、下、左、右を指すジェスチャ
長さデータ:256、4つの連続する8 x 8マトリックス
データレート:15Hz
結果
4クラスの分類:
精度:98.12%、使用RAM:1.3KB、使用Flashメモリ:59.1KB
