颖脉 NNA¶
Paddle Lite 已支持 Imagination NNA 的预测部署。 其接入原理是与之前华为 Kirin NPU 类似,即加载并分析 Paddle 模型,将 Paddle 算子转成 Imagination DNN APIs 进行网络构建,在线生成并执行模型。
支持现状¶
已支持的芯片¶
紫光展锐虎贲 T7510
已支持的设备¶
海信 F50,Roc1 开发板(基于 T7510 的微型电脑主板)
酷派 X10(暂未提供 demo)
已支持的 Paddle 模型¶
性能¶
测试环境
编译环境
Ubuntu 18.04,GCC 5.4 for ARMLinux aarch64
硬件环境
紫光展锐虎贲 T7510
Roc1 开发板
CPU:4 x Cortex-A75 2.0 GHz + 4 x Cortex-A55 1.8 GHz
NNA:4 TOPs @1.0GHz
测试方法
warmup=1,repeats=5,统计平均时间,单位是 ms
线程数为 1,
paddle::lite_api::PowerMode CPU_POWER_MODE
设置为paddle::lite_api::PowerMode::LITE_POWER_HIGH
分类模型的输入图像维度是{1, 3, 224, 224}
测试结果
模型 | 紫光展锐虎贲 T7510 | |
---|---|---|
CPU(ms) | NPU(ms) | |
mobilenet_v1_int8_224_per_layer | 61.093601 | 3.217800 |
已支持(或部分支持)的 Paddle 算子¶
您可以查阅 NNAdapter 算子支持列表获得各算子在不同新硬件上的最新支持信息。
参考示例演示¶
测试设备( Roc1 开发板)¶
准备设备环境¶
需要依赖特定版本的 firmware,请联系 Imagination 相关研发同学 jason.wang@imgtec.com;
确定能够通过 SSH 方式远程登录 Roc 1 开发板;
由于 Roc 1 的 ARM CPU 能力较弱,示例程序和 Paddle Lite 库的编译均采用交叉编译方式。
准备交叉编译环境¶
按照以下两种方式配置交叉编译环境:
Docker 交叉编译环境:由于 Roc1 运行环境为Ubuntu 18.04,且 Imagination NNA DDK 依赖高版本的 glibc,因此不能直接使用 Docker 统一编译环境搭建 中的 Docker image,而需要按照如下方式在Host机器上手动构建 Ubuntu 18.04 的 Docker image;
$ wget https://paddlelite-demo.bj.bcebos.com/devices/imagination/Dockerfile $ docker build --network=host -t paddlepaddle/paddle-lite-ubuntu18_04:1.0 . $ docker run --name paddle-lite-ubuntu18_04 --net=host -it --privileged -v $PWD:/Work -w /Work paddlepaddle/paddle-lite-ubuntu18_04:1.0 /bin/bash
Ubuntu 交叉编译环境:要求 Host 为 Ubuntu 18.04 系统,参考编译环境准备中的”交叉编译 ARM Linux “步骤安装交叉编译工具链。
由于需要通过
scp
和ssh
命令将交叉编译生成的 Paddle Lite 库和示例程序传输到设备上执行,因此,在进入 Docker 容器后还需要安装如下软件:$ apt-get install openssh-client sshpass
运行图像分类示例程序¶
下载 Paddle Lite 通用示例程序 PaddleLite-generic-demo.tar.gz ,解压后目录主体结构如下:
- PaddleLite-generic-demo - image_classification_demo - assets - configs - imagenet_224.txt # config 文件 - synset_words.txt # 1000 分类 label 文件 - datasets - test # dataset - inputs - tabby_cat.jpg # 输入图片 - outputs - tabby_cat.jpg # 输出图片 - list.txt # 图片清单 - models - mobilenet_v1_int8_224_per_layer - __model__ # Paddle fluid 模型组网文件,可使用 netron 查看网络结构 — conv1_weights # Paddle fluid 模型参数文件 - batch_norm_0.tmp_2.quant_dequant.scale # Paddle fluid 模型量化参数文件 — subgraph_partition_config_file.txt # 自定义子图分割配置文件 ... - shell - CMakeLists.txt # 示例程序 CMake 脚本 - build.linux.arm64 # arm64 编译工作目录 - demo # 已编译好的,适用于 arm64 的示例程序 ... ... - demo.cc # 示例程序源码 - build.sh # 示例程序编译脚本 - run_with_ssh.sh # 示例程序 adb 运行脚本 - run_with_adb.sh # 示例程序 ssh 运行脚本 - run.sh # 示例程序运行脚本 - libs - PaddleLite - linux - arm64 - include - lib - imagination_nna # 颖脉 NNA imgdnn DDK、NNAdapter 运行时库、device HAL 库 - libimagination_nna.so # NNAdapter device HAL 库 - libnnadapter.so # NNAdapter 运行时库 - libcrypto.so ... - libpaddle_full_api_shared.so # 预编译 Paddle Lite full api 库 - libpaddle_light_api_shared.so # 预编译 Paddle Lite light api 库 ... ... ... - OpenCV # OpenCV 预编译库
按照以下命令分别运行转换后的 ARM CPU 模型和 Imagination NNA 模型,比较它们的性能和结果;
注意: 1)`run_with_adb.sh` 不能在 Docker 环境执行,否则可能无法找到设备,也不能在设备上运行。 2)`run_with_ssh.sh` 不能在设备上运行,且执行前需要配置目标设备的IP地址、SSH 账号和密码。 3)`build.sh` 根据入参生成针对不同操作系统、体系结构的二进制程序,需查阅注释信息配置正确的参数值。 4)`run_with_adb.sh` 入参包括模型名称、操作系统、体系结构、目标设备、设备序列号等,需查阅注释信息配置正确的参数值。 5)`run_with_ssh.sh` 入参包括模型名称、操作系统、体系结构、目标设备、ip 地址、用户名、用户密码等,需查阅注释信息配置正确的参数值。 在 ARM CPU 上运行 mobilenetv1 全量化模型 $ cd PaddleLite-generic-demo/image_classification_demo/shell $ ./run_with_ssh.sh mobilenet_v1_int8_224_per_layer imagenet_224.txt test linux arm64 cpu 192.168.100.10 22 img imgroc1 Top1 Egyptian cat - 0.503239 Top2 tabby, tabby cat - 0.419854 Top3 tiger cat - 0.065506 Top4 lynx, catamount - 0.007992 Top5 cougar, puma, catamount, mountain lion, painter, panther, Felis concolor - 0.000494 Preprocess time: 7.667000 ms, avg 7.667000 ms, max 7.667000 ms, min 7.667000 ms Prediction time: 60.589000 ms, avg 60.589000 ms, max 60.589000 ms, min 60.589000 ms Postprocess time: 8.914000 ms, avg 8.914000 ms, max 8.914000 ms, min 8.914000 ms 在 Imagination NNA 上运行 mobilenetv1 全量化模型 $ cd PaddleLite-generic-demo/image_classification_demo/shell $ ./run_with_ssh.sh mobilenet_v1_int8_224_per_layer imagenet_224.txt test linux arm64 imagination_nna 192.168.100.10 22 img imgroc1 Top1 tabby, tabby cat - 0.462131 Top2 Egyptian cat - 0.462131 Top3 tiger cat - 0.058498 Top4 lynx, catamount - 0.011700 Top5 tiger shark, Galeocerdo cuvieri - 0.000000 Preprocess time: 7.547000 ms, avg 7.547000 ms, max 7.547000 ms, min 7.547000 ms Prediction time: 4.026000 ms, avg 4.026000 ms, max 4.026000 ms, min 4.026000 ms Postprocess time: 8.780000 ms, avg 8.780000 ms, max 8.780000 ms, min 8.780000 ms
如果需要更改测试图片,可将图片拷贝到
PaddleLite-generic-demo/image_classification_demo/assets/datasets/test/inputs
目录下,同时将图片文件名添加到PaddleLite-generic-demo/image_classification_demo/assets/datasets/test/list.txt
中;注意: 1)请根据 `buid.sh` 配置正确的参数值。 2)需在 Docker 环境中编译。 $ ./build.sh linux arm64
更新模型¶
通过 Paddle Fluid 训练,或 X2Paddle 转换得到 MobileNetv1 foat32 模型mobilenet_v1_fp32_224_fluid;
参考模型量化使用 PaddleSlim 对
float32
模型进行量化(注意:由于 Imagination NNA 只支持 tensor-wise 的全量化模型,在启动量化脚本时请注意相关参数的设置),最终得到全量化 MobileNetV1 模型mobilenet_v1_int8_224_fluid;参考模型转化方法,利用 opt 工具转换生成 Imagination NNA 模型,仅需要将
valid_targets
设置为 imagination_nna,arm 即可。$ ./opt --model_dir=mobilenet_v1_int8_224_per_layer \ --optimize_out_type=naive_buffer \ --optimize_out=opt_model \ --valid_targets=imagination_nna,arm 替换自带的 Imagination NNA 模型 $ cp opt_model.nb mobilenet_v1_int8_224_per_layer/model.nb
注意:opt 生成的模型只是标记了 Imagination NNA 支持的 Paddle 算子,并没有真正生成 Imagination NNA 模型,只有在执行时才会将标记的 Paddle 算子转成 Imagination DNN APIs,最终生成并执行模型。
更新支持 Imagination NNA 的 Paddle Lite 库¶
下载 Paddle Lite 源码和 Imagination NNA DDK
$ git clone https://github.com/PaddlePaddle/Paddle-Lite.git $ cd Paddle-Lite $ git checkout <release-version-tag> $ curl -L https://paddlelite-demo.bj.bcebos.com/devices/imagination/imagination_nna_sdk.tar.gz -o - | tar -zx
编译并生成
Paddle Lite + ImaginationNNA
for armv8的部署库For Roc1
tiny_publish 编译方式
$ ./lite/tools/build_linux.sh --with_extra=ON --with_log=ON --with_nnadapter=ON --nnadapter_with_imagination_nna=ON --nnadapter_imagination_nna_sdk_root=$(pwd)/imagination_nna_sdk
full_publish 编译方式
$ ./lite/tools/build_linux.sh --with_extra=ON --with_log=ON --with_nnadapter=ON --nnadapter_with_imagination_nna=ON --nnadapter_imagination_nna_sdk_root=$(pwd)/imagination_nna_sdk full_publish
替换头文件和库
替换 include 目录 $ cp -rf build.lite.linux.armv8.gcc/inference_lite_lib.armlinux.armv8.nnadapter/cxx/include/ PaddleLite-generic-demo/libs/PaddleLite/linux/arm64/include/ 替换 NNAdapter 运行时库 $ cp -rf build.lite.linux.armv8.gcc/inference_lite_lib.armlinux.armv8.nnadapter/cxx/lib/libnnadapter.so PaddleLite-generic-demo/libs/PaddleLite/linux/arm64/lib/imagination_nna/ 替换 NNAdapter device HAL 库 $ cp -rf build.lite.linux.armv8.gcc/inference_lite_lib.armlinux.armv8.nnadapter/cxx/lib/libimagination_nna.so PaddleLite-generic-demo/libs/PaddleLite/linux/arm64/lib/imagination_nna/ 替换 libpaddle_light_api_shared.so $ cp -rf build.lite.linux.armv8.gcc/inference_lite_lib.armlinux.armv8.nnadapter/cxx/lib/libpaddle_light_api_shared.so PaddleLite-generic-demo/libs/PaddleLite/linux/arm64/lib/ 替换 libpaddle_full_api_shared.so (仅在 full_publish 编译方式下) $ cp -rf build.lite.linux.armv8.gcc/inference_lite_lib.armlinux.armv8.nnadapter/cxx/lib/libpaddle_full_api_shared.so PaddleLite-generic-demo/libs/PaddleLite/linux/arm64/lib/
替换头文件后需要重新编译示例程序
其它说明¶
Imagination 研发同学正在持续增加用于适配 Paddle 算子
bridge/converter
,以便适配更多 Paddle 模型。