組込みAI開発者向けの無償ツール

STM32Cube.AIを使用すると、STM32マイクロコントローラ上で最も一般的なAIフレームワークから学習済みニューラル・ネットワーク(NN)モデルを最適化し、組込むことができます。
このツールは、STM32CubeMX環境のグラフィカル・インタフェースのほか、コマンド・ラインでも利用可能です。さらに、STM32Cube.AI Developer Cloudで、このツールをオンラインで利用することも可能になりました。

バージョン8.1の新機能


NNモデルの最適化と生成におけるパフォーマンスの向上
ONNXの機能とオペレータのサポート改善
サポートされていないレイヤ / オペレータの実装

ニューラル・ネットワークからSTM32に最適化されたコードまで

プロジェクトに最適なSTM32マイコンを特定し、学習済みニューラル・ネットワーク・モデルから適切なコードを生成します。

1
NNモデルをロード
2
NNモデルを解析
3
検証
4
最適化
5
コード生成
マイコンを選択し、お使いのAIフレームワークから学習済みモデルをロードします(Tensorflow、Pytorch、ONNX、Scikit-Learnなど)。STM32Cube.AIは、FLOAT32または量子化INT8重み形式をサポートしています(入力ファイル形式:.tflite、.h5、.onnx)。
モデル解析により、パラメータ数、MACC / レイヤの複雑さ、詳細なRAM / フラッシュ・メモリ・サイズ要件など、モデルに関する完全な情報を入手できます。
データ・セットまたはランダム値でモデルを検証して、生成されたCコードが元の学習済みモデルと合致することを確認します。 検証オプションは、デスクトップ・コンピュータ上またはコンピュータに接続されたSTM32ボード上で実行できます。
レイヤ別のメモリ使用量を管理し、内部メモリ・リソースと外部メモリ・リソースの適切なバランスを選択することにより、モデルを最適化します。
最適化されたAI推論モデルのCコードを生成します。

STM32マイコンを最大限に活用

STM32Cube.AIは、AIモデルのメモリ使用量と推論時間を最適化することにより、AIモデルをマイコン上で簡単に実行できるようにします。
STM32Cube.AIは、マイコン向けの最も効率的な無償のニューラル・ネットワーク・コード・ジェネレータです。

最大

20 %

のFlash / RAMメモリ・スペースを削減*

最大

60 %

も高速な推論時間*

* TensorFlow Lite for microcontrollerとの比較

最適な組込みAIモデルが見つかるSTM32 Model zoo

STM32 AI Model zooは、STM32マイコン上での実行に最適化された学習済み機械学習モデルのコレクションです。 GitHubで利用でき、STM32ベースのプロジェクトへのAI機能の追加を目指しているすべてのユーザにとって貴重なリソースです。

– いつでも再学習可能なアプリケーション指向モデルの大規模コレクション
– ユーザのデータセットからモデルを簡単に再学習するためのスクリプト
– ユーザのAIモデルから自動生成されるアプリケーション・コード例

STM32Cube.AIを使ってみましょう

AIニューラル・ネットワークの最適化方法やSTM32プロジェクトのための処理ライブラリの作成方法をご覧いただけます。