面向边缘AI开发人员的免费工具

STM32Cube.AI可用来在任意STM32微控制器上,对采用最流行AI框架训练的神经网络模型进行优化和部署。
该工具可通过STM32CubeMX环境中的图形界面以及命令行使用。 这个工具现在也可以在STM32Cube.AI开发者云中 在线使用

版本8.0的新特性


开始支持面向ONNX Tensor的文件格式 (QDQ)
更新了受支持的AI框架:
– TensorFlow 2.11
– Keras.io 2.11
– ONNX Runtime 1.12.1

从神经网络到STM32优化代码

从经训练的神经网络模型找到适合您项目的STM32 MCU,然后生成合适的代码

1
Load NN model
2
Analyse NN model
3
Validate
4
Optimize
5
Generate code
Select your MCU and load your trained model from your favorite AI framework: Tensorflow, Pytorch, ONNX, Scikit-Learn.. STM32Cube.AI supports FLOAT32 or quantized INT8 weight formats (input file formats: .tflite, .h5, and .onnx).
The model analysis provides access to a complete set of information about your model, such as the number of parameters, MACC/layer complexity, and detailed RAM and flash size requirements.
Validate your model with a data set or random values to check that the generated C-code matches with the original trained model supplied. Validation options can be performed on the desktop computer or on the STM32 board connected to the computer.
Optimize your model by managing memory usage by layer and choosing the right balance between internal and external memory resources.
Generate the optimized C-code of your AI inference model.

最大限度发挥STM32微控制器的作用

STM32Cube.AI通过优化AI模型的内存占用和推理时间,确保它们在微控制器上轻松运行。
STM32Cube.AI是最高效的用于MCU的免费神经网络代码生成器!

高达

20 %

Flash和RAM的空间释放率*

高达

60 %

推理速度提升率*

*与适用于微控制器的TensorFlow Lite相比

STM32 Model Zoo——发现最佳边缘AI模型

STM32 AI Model Zoo是一个汇集了一些预训练机器学习模型的集合,这些模型经过优化后可运行在STM32微控制器上。 可从GitHub获取,如果想要为基于STM32的项目增加AI功能,可以利用这一宝贵资源。

– 大量面向应用的可重训练模型
– 用于轻松重训练用户数据集中的任何模型的脚本
– 通过用户AI模型自动生成的应用代码示例

STM32Cube.AI入门

探索如何优化AI神经网络以及为STM32项目创建处理库