, ,

じゃんけん・ジェスチャ認識

マイノリティ・リポート:フィクションからほぼ現実へ!

ジェスチャに基づくデバイス制御は、ユーザ・エクスペリエンスの向上や衛生上の理由による非接触アプリケーションへの対応など、さまざまなメリットをもたらします。 デモのために数種のハンド・サインを識別する3つのクラスを作成しましたが、このモデルはあらゆるジェスチャを学習させることで最終ユーザに幅広い新機能を提供できます。

NanoEdge AI StudioはToF(Time-of-Flight)測距センサをサポートしていますが、このアプリケーションではレーダーなどのセンサを使用することもできます。

アプローチ

– 信号を減らして情報を簡素化するために、カメラではなくToF測距センサを使用しました。
– 背景の影響を低減するために検出距離を20cmに設定しました。 オプション:測定した距離の2値化
– 10回測定し(周波数:15Hz)、測定ごとにクラスを予測しました。 その後、最も頻繁に出現するクラスを選択しました。
– (動きの展開について検討するために、測定値を連結して長い信号を作成します。ここでの目的はサインを分類することですので、一時性は不要です)。
– 空測定(動きなし)を避けるために、クラス(グー、チョキ、パー)ごとに3,000レコードのデータセットを作成しました。
– そして、NanoEdge AI Studioで「Nクラス分類」モデル(3クラス)を作成し、NUCLEO_F401REで実際にテストしました。

センサ

ToF測距センサ:VL53L5

データ

3クラスのデータ:グー、チョキ、パー
信号長:64、8 x 8の連続行列
データレート:15Hz

結果

3クラスの分類:
精度:99.37%、使用RAM:0.6KB、使用Flash:192.2KB

緑の点は正しく分類された信号を表し、赤い点は誤って分類された信号を表します。 横座標はクラス、縦座標は正常状態に対する類似度です。