Skip to content

Tensorflow Lite Micro is a DL inference framework for microcontrollers based on Google Tensorflow Lite

License

Notifications You must be signed in to change notification settings

QingChuanWS/TensorflowLiteMicro

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

80 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

Tensorflow Lite Micro 软件包

中文版 | English Version

1、介绍

Tensorflow Lite Micro软件包(简称TFLu)是针对RT-Thread实时操作系统移植的嵌入式推理框架, 主要解决在资源, 功耗, 性能等资源受限的嵌入式系统中, 部署基于Tensorflow Lite框架实现深度学习模型任务

目前计划进行调优的平台 :

  • 树莓派4 ( Cortex A72内核, 64位, gcc-arm-8.3交叉工具链 ) : RAM 28K, Flash 690K 仓库链接: https://github.com/QingChuanWS/raspi4-tfliteMicro

  • ART-Pi (STM32H750, 32位, gcc-arm-none-eabi-9-2019 ) : RAM 25K, Flash 542K

  • Nucleo-STM32L496(STM32L496, 32位, gcc-arm-none-eabi-9-2019)

  • Kendryte K210(K210, 64位, riscv架构)

1.1 目录结构

名称 说明
docs 文档目录
examples Tensorflow Lite Micro demo
third_party Tensorflow Lite Micro 依赖的第三方库
tensorflow Tensorflow Lite Micro 推理框架

1.2 许可证

Tensorflow Lite Micro package 遵循 LGPLv2.1 许可,详见 LICENSE 文件。

1.3 依赖

RT-Thread 3.0+

2、如何打开 Tensorflow Lite Micro

使用 Tensorflow Lite Micro package 需要在 RT-Thread 的包管理器中选择它,具体路径如下:

RT-Thread online packages
    miscellaneous packages --->
        [*] Tensorflow Lite Micro: a lightweight deep learning end-test inference framework for RT-Thread operating system.

然后让 RT-Thread 的包管理器自动更新,或者使用 pkgs --update 命令更新包到 BSP 中。

3、使用 Tensorflow Lite Micro

在成功下载 Tensorflow Lite Micro package 之后:

  • 首先通过RT-Thread 的 env 工具中 menuconfig 进行功能配置, 其中在 menuconfig 中的配置选项为:
RT-Thread online packages
    miscellaneous packages --->
        [*] Tensorflow Lite Micro: a lightweight deep learning end-test inference framework for RT-Thread operating system.
            Version(latest) --->
            Select Offical Example(Enable Tensorflow Lite Micro aduio example) --->
            Select Tensorflow Lite Operations Type (Using Tensorflow Lite reference operations)  --->

其中, Select Offical Example 中有两个选项:

( ) Enable Tensorflow Lite Micro audio example
(X) No Tensorflow Lite Micro example

注 : audio example 是执行官方携带的语音示例, No example 则是不集成 example 文件, 只使用 Tensorflow Lite Micro 标准框架. (注:默认不开启语音实例)

  • 如果选择了语音示例, 请将example文件夹下的audio_main.cc文件拷贝到工程的Application目录中, 然后编译, 烧录/下载查看效果了

Select Tensorflow Lite Operations Type 中有两个选项:

( ) Using Tensorflow Lite reference operations
(X) Using Tensorflow Lite CMSIS NN operations 
  • reference operation 对应的是 TFLMicro 的通用算子库,其中的各类算子实现与硬件平台隔离,具备良好的可移植性,但是运行速度较慢。

  • CMSIS NN operations 对应的是 TFLMicro 基于CMSIS-NN 库进行二次开发的算子库,对ARM Cortex M4,M7 有大幅加速. 使用的有关注意事项请参照第四部分!!

注意:

  • Tensorflow Lite Micro 框架中的模块较多,使用之前请先参考 introduction.md , 通过 user-guide.md 来了解基本使用流程流程。
  • API 手册可以访问此链接, 其中提供了目前支持算子的情况
  • 更多文档位于 docs 下,使用前 务必查看

4、注意事项

  • 关于Using Tensorflow Lite CMSIS NN operations 选项:
    • CMSIS-NN 对于算子的优化主要针对 ARM Cortex M4 以上的 ARM 内核 ( 因为其搭载了DSP, FPU等硬件加速部件) 进行计算优化, M4 以下的 MCU 不建议使用该软件包。
    • CMSIS-NN 的优化目前只提供了M系列的MCU;ARM Cortex A系列, R系列不应应用该选项.
    • 目前CMSIS NN算子还处在测试阶段, 可能存在问题.
  • 本软件包在运行时会占用16KB RAM空间, 同时自带的语音识别案例在运行时总共占用22KB内存, 请注意通过menuconfig来修改主函数栈的大小以及内存管理算法 !

5、联系方式 & 感谢

  • 维护:QingChuanWS
  • 主页:https://github.com/QingChuanWS
  • 欢迎各位developer使用该组件并提出自己的建议, 我会认真听取并不断改进. 您的支持就是我最大的动力