- 1.基于paddleX的EdgeBoard部署项目举例:PaddleX快速上手-MobileNet V2图像分类
https://aistudio.baidu.com/aistudio/projectdetail/439860?channelType=0&channel=0
训练过程中10个epoch每次的训练结果都会与bestmodel进行对比
训练结果产生四个文件夹:
1参数/ 2与训练相关的内容/3op之间如何连接/4训练前处理相关配置
推理预测:板子上部署时,还需要将导出的不需要的信息删除掉
EdgeBoard:AI时代的树莓派
github上paddleX官网上有完整的模型部署导出流程
paddlex --export_inference --model_dir=./output/deeplabv3p_r50vd/best_model/ --save_dir=./inference_model
需要按照示例修改模型路径,运行完上述命令行工作路径下会多出inference文件夹,我们更关心的是_model_和_params_两个文件,文件名可以按照自己习惯的方式来进行命名。
EdgeBoard板子通过网线与PC连接,MAC系统使用smb登录连接,Windows使用SCP登录也可以
可视化界面方式更直观,命令行也可以
开发板支持很多外设:HDMI USB 以太网 GPIO
登录板子,192.168.1.252是出厂默认的IP
用户名与密码都是root
文件夹路径:
前处理相关参数:
推理代码:
C++或者Python的推理步骤与前面课程讲解代码整体流程相同,Python部署流程与C++几乎一致,python需要用python3版本
编译运行:cmake跨平台编译工具
Edgeboard A55 CPU
目前支持的网络,支持多数分类模型,部分检测模型,分割模型支持DeepLabV3
- 2.基于paddle-lite的安卓部署示例
https://paddle-lite.readthedocs.io/zh/latest/user_guides/quant_aware.html
华为手机有npu可以执行该语句,可以加速推理。
左端显示为推理所用nb模型文件路径
建议首先在虚拟机进行测试实验,如果出现崩溃问题可以直接删除整个系统
基于VMware的虚拟机系统安装,ubuntu镜像大小2.7G
安卓部署相关文件路径
配置文件