联发科 APU 部署示例

Paddle Lite 已支持 MediaTek APU 的预测部署。 其接入原理是与之前华为 Kirin NPU 类似,即加载并分析 Paddle 模型,将 Paddle 算子转成 MTK 的 Neuron adapter API(类似 Android NNAPI )进行网络构建,在线生成并执行模型。

支持现状

已支持的芯片

已支持的设备

  • MT8168-P2V1 Tablet

已支持的 Paddle 模型

性能

  • 测试环境

    • 编译环境

      • Ubuntu 16.04,NDK-r17c with GCC for Android armeabi-v7a

    • 硬件环境

      • MT8168

        • MT8168-P2V1 Tablet

        • CPU:4 x Cortex-A53 2.0 GHz

        • APU:0.3 TOPs

  • 测试方法

    • warmup=1,repeats=5,统计平均时间,单位是 ms

    • 线程数为 1,paddle::lite_api::PowerMode CPU_POWER_MODE 设置为 paddle::lite_api::PowerMode::LITE_POWER_HIGH

    • 分类模型的输入图像维度是{1, 3, 224, 224},检测模型的维度是{1, 3, 300, 300}

  • 测试结果

模型 MT8168
CPU(ms) NPU(ms)
mobilenet_v1_int8_224_per_layer 128.642798 26.293800
mobilenet_v1_int8_224_per_channel 130.371799 26.617400
resnet50_int8_224_per_layer 758.427002 77.927400
ssd_mobilenet_v1_relu_voc_int8_300_per_layer 271.850400 53.312100

已支持(或部分支持)的 Paddle 算子

您可以查阅 NNAdapter 算子支持列表获得各算子在不同新硬件上的最新支持信息。

不经过 NNAdapter 标准算子转换,而是直接将 Paddle 算子转换成 Mediatek APU IR 的方案可点击链接

参考示例演示

测试设备( MT8168-P2V1 Tablet)

mt8168_p2v1_tablet_front

mt8168_p2v1_tablet_back

准备设备环境

  • 由于需要依赖特定版本的 firmware,感兴趣的同学通过 MTK 官网https://www.mediatek.cn/about/contact-us提供的联系方式(类别请选择”销售”),获取测试设备和 firmware;

准备交叉编译环境

  • 为了保证编译环境一致,建议参考编译环境准备中的 Docker 开发环境进行配置。

运行图像分类示例程序

  • 下载 Paddle Lite 通用示例程序 PaddleLite-generic-demo.tar.gz ,解压后目录主体结构如下:

      - PaddleLite-generic-demo
        - image_classification_demo
          - assets
            - images
              - tabby_cat.jpg # 测试图片
              - tabby_cat.raw # 经过 convert_to_raw_image.py 处理后的 RGB Raw 图像
            - labels
              - synset_words.txt # 1000 分类 label 文件
            - models
              - mobilenet_v1_int8_224_per_layer # Paddle non-combined 格式的 mobilenet_v1 int8 全量化模型
                - __model__ # Paddle fluid 模型组网文件,可使用 netron 查看网络结构
                — conv1_weights # Paddle fluid 模型参数文件
                - batch_norm_0.tmp_2.quant_dequant.scale # Paddle fluid 模型量化参数文件
                — subgraph_partition_config_file.txt # 自定义子图分割配置文件
                ...
          - shell
            - CMakeLists.txt # 示例程序 CMake 脚本
            - build.android.arm64-v8a # arm64-v8a 编译工作目录
              - image_classification_demo # 已编译好的,适用于 amd64-v8a 的示例程序
            - build.android.armeabi-v7a # armeabi-v7a 编译工作目录
              - image_classification_demo # 已编译好的,适用于 arm64 的示例程序
              ...
            ...
            - image_classification_demo.cc # 示例程序源码
            - build.sh # 示例程序编译脚本
            - run_with_adb.sh # 示例程序 adb 运行脚本
            — run_with_ssh.sh # 示例程序 ssh 运行脚本
            - run.sh # 示例程序运行脚本
        - libs
          - PaddleLite
            - android
              - armeabi-v7a
                - include
                - lib
                  - mediatek_apu # 联发科 APU Neuron Adapter 库、NNAdapter 运行时库、device HAL 库
                    - libnnadapter.so # NNAdapter 运行时库
                    - libmediatek_apu.so # NNAdapter device HAL 库
                - libpaddle_full_api_shared.so # 预编译 Paddle Lite full api 库
                - libpaddle_light_api_shared.so # 预编译 Paddle Lite light api 库
                - libc++_shared.so
              ...
          - OpenCV # OpenCV 预编译库
    
  • Android shell 端的示例程序

    • 按照以下命令分别运行转换后的 ARM CPU 模型和 MediaTek APU 模型,比较它们的性能和结果;

      注意:
      1`run_with_adb.sh` 不能在 Docker 环境执行,否则可能无法找到设备,也不能在设备上运行。
      2`run_with_ssh.sh` 不能在设备上运行,且执行前需要配置目标设备的 IP 地址、SSH 账号和密码。
      3`build.sh` 根据入参生成针对不同操作系统、体系结构的二进制程序,需查阅注释信息配置正确的参数值。
      4`run_with_adb.sh` 入参包括模型名称、操作系统、体系结构、目标设备、设备序列号等,需查阅注释信息配置正确的参数值。
      5`run_with_ssh.sh` 入参包括模型名称、操作系统、体系结构、目标设备、ip地址、用户名、用户密码等,需查阅注释信息配置正确的参数值。
      
      在 ARM CPU 上运行 mobilenetv1 全量化模型
      $ cd PaddleLite-generic-demo/image_classification_demo/shell
      $ ./run_with_adb.sh mobilenet_v1_int8_224_per_layer android armeabi-v7a cpu 0123456789ABCDEF
        ...
        iter 0 cost: 128.673004 ms
        iter 1 cost: 128.539001 ms
        iter 2 cost: 128.505005 ms
        iter 3 cost: 128.626007 ms
        iter 4 cost: 128.735992 ms
        warmup: 1 repeat: 5, average: 128.615802 ms, max: 128.735992 ms, min: 128.505005 ms
        results: 3
        Top0  Egyptian cat - 0.512545
        Top1  tabby, tabby cat - 0.402567
        Top2  tiger cat - 0.067904
        Preprocess time: 2.070000 ms
        Prediction time: 128.615802 ms
        Postprocess time: 0.280000 ms
      
      在 MediaTeK APU 上运行 mobilenetv1 全量化模型
      $ cd PaddleLite-generic-demo/image_classification_demo/shell
      $ ./run_with_adb.sh mobilenet_v1_int8_224_per_layer android armeabi-v7a mediatek_apu 0123456789ABCDEF
        ...
        iter 0 cost: 26.193001 ms
        iter 1 cost: 26.142000 ms
        iter 2 cost: 26.538000 ms
        iter 3 cost: 26.292000 ms
        iter 4 cost: 26.304001 ms
        warmup: 1 repeat: 5, average: 26.293800 ms, max: 26.538000 ms, min: 26.142000 ms
        results: 3
        Top0  Egyptian cat - 0.672723
        Top1  tabby, tabby cat - 0.672723
        Top2  tiger cat - 0.128695
        Preprocess time: 2.098000 ms
        Prediction time: 26.293800 ms
        Postprocess time: 0.260000 ms
      
    • 如果需要更改测试图片,可将图片拷贝到 PaddleLite-generic-demo/image_classification_demo/assets/images 目录下,然后调用 convert_to_raw_image.py 生成相应的 RGB Raw 图像,最后修改 run_with_adb.sh 的 IMAGE_NAME 变量即可;

    • 重新编译示例程序:

    注意:
    1)请根据 `buid.sh` 配置正确的参数值。
    2)需在 Docker 环境中编译。
    
    # 对于 arm64-v8a
    ./build.sh android arm64-v8a
    
    # 对于 armeabi-v7a
    ./build.sh android armeabi-v7a
    

更新模型

  • 通过 Paddle 训练,或 X2Paddle 转换得到 MobileNetv1 foat32 模型 mobilenet_v1_fp32_224_fluid

  • 参考模型量化-静态离线量化使用 PaddleSlim 对 float32 模型进行量化(注意:由于 MTK APU 只支持量化 OP,在启动量化脚本时请注意相关参数的设置),最终得到全量化MobileNetV1 模型 mobilenet_v1_int8_224_per_layer

  • 参考模型转化方法,利用 opt 工具转换生成 MTK APU 模型,仅需要将 valid_targets 设置为 mediatek_apu, arm 即可。

    # 注意:
    1)PaddleLite-generic-demo 中已经包含了类似 opt 工具优化生成 nb 模型的功能。
    
    $ cd PaddleLite-generic-demo/image_classification_demo/assets/models
    $ ./opt --model_dir=mobilenet_v1_int8_224_per_layer \
        --optimize_out_type=naive_buffer \
        --optimize_out=opt_model \
        --valid_targets=mediatek_apu,arm
    
  • 注意:opt 生成的模型只是标记了 MediaTek APU 支持的 Paddle 算子,并没有真正生成 MediaTek APU 模型,只有在执行时才会将标记的 Paddle 算子转成 MTK Neuron adapter API 调用实现组网,最终生成并执行模型。

更新支持 MediaTek APU 的 Paddle Lite 库

  • 下载 Paddle Lite 源码和 MediaTek APU DDK;

    $ git clone https://github.com/PaddlePaddle/Paddle-Lite.git
    $ cd Paddle-Lite
    $ git checkout <release-version-tag>
    $ wget https://paddlelite-demo.bj.bcebos.com/devices/mediatek/apu_ddk.tar.gz
    $ tar -xvf apu_ddk.tar.gz
    
  • 编译并生成 PaddleLite+MediaTekAPU for armv8 and armv7 的部署库

    • For armv8

      • tiny_publish 编译方式

        $ ./lite/tools/build_android.sh --android_stl=c++_shared --with_extra=ON --with_log=ON --with_nnadapter=ON --nnadapter_with_mediatek_apu=ON --nnadapter_mediatek_apu_sdk_root=$(pwd)/apu_ddk
        
      • full_publish 编译方式

        $ ./lite/tools/build_android.sh --android_stl=c++_shared --with_extra=ON --with_log=ON --with_nnadapter=ON --nnadapter_with_mediatek_apu=ON --nnadapter_mediatek_apu_sdk_root=$(pwd)/apu_ddk full_publish
        
      • 替换头文件和库

        # 替换 include 目录
        $ cp -rf build.lite.android.armv8.gcc/inference_lite_lib.android.armv8.nnadapter/cxx/include/ PaddleLite-generic-demo/libs/PaddleLite/android/arm64-v8a/include/
        # 替换 NNAdapter 运行时库
        $ cp -rf build.lite.android.armv8.gcc/inference_lite_lib.android.armv8.nnadapter/cxx/lib/libnnadapter.so PaddleLite-generic-demo/libs/PaddleLite/android/arm64-v8a/lib/mediatek_apu/
        # 替换 NNAdapter device HAL 库
        $ cp -rf build.lite.android.armv8.gcc/inference_lite_lib.android.armv8.nnadapter/cxx/lib/libmediatek_apu.so PaddleLite-generic-demo/libs/PaddleLite/android/arm64-v8a/lib/mediatek_apu/
        # 替换 libpaddle_light_api_shared.so
        $ cp -rf build.lite.android.armv8.gcc/inference_lite_lib.android.armv8.nnadapter/cxx/lib/libpaddle_light_api_shared.so PaddleLite-generic-demo/libs/PaddleLite/android/arm64-v8a/lib/
        # 替换 libpaddle_full_api_shared.so (仅在 full_publish 编译方式下)
        $ cp -rf build.lite.android.armv8.gcc/inference_lite_lib.android.armv8.nnadapter/cxx/lib/libpaddle_full_api_shared.so PaddleLite-generic-demo/libs/PaddleLite/android/arm64-v8a/lib/
        
    • For armv7

      • tiny_publis h编译方式

        $ ./lite/tools/build_android.sh --arch=armv7 --android_stl=c++_shared --with_extra=ON --with_log=ON --with_nnadapter=ON --nnadapter_with_mediatek_apu=ON --nnadapter_mediatek_apu_sdk_root=$(pwd)/apu_ddk
        
      • full_publish 编译方式

        $ ./lite/tools/build_android.sh --arch=armv7 --android_stl=c++_shared --with_extra=ON --with_log=ON --with_nnadapter=ON --nnadapter_with_mediatek_apu=ON --nnadapter_mediatek_apu_sdk_root=$(pwd)/apu_ddk full_publish
        
      • 替换头文件和库

        # 替换 include 目录
        $ cp -rf build.lite.android.armv7.gcc/inference_lite_lib.android.armv7.nnadapter/cxx/include/ PaddleLite-generic-demo/libs/PaddleLite/android/armeabi-v7a/include/
        # 替换 NNAdapter 运行时库
        $ cp -rf build.lite.android.armv7.gcc/inference_lite_lib.android.armv7.nnadapter/cxx/lib/libnnadapter.so PaddleLite-generic-demo/libs/PaddleLite/android/armeabi-v7a/lib/mediatek_apu/
        # 替换 NNAdapter device HAL 库
        $ cp -rf build.lite.android.armv7.gcc/inference_lite_lib.android.armv7.nnadapter/cxx/lib/libmediatek_apu.so PaddleLite-generic-demo/libs/PaddleLite/android/armeabi-v7a/lib/mediatek_apu/
        # 替换 libpaddle_light_api_shared.so
        $ cp -rf build.lite.android.armv7.gcc/inference_lite_lib.android.armv7.nnadapter/cxx/lib/libpaddle_light_api_shared.so PaddleLite-generic-demo/libs/PaddleLite/android/armeabi-v7a/lib/
        # 替换 libpaddle_full_api_shared.so (仅在 full_publish 编译方式下)
        $ cp -rf build.lite.android.armv7.gcc/inference_lite_lib.android.armv7.nnadapter/cxx/lib/libpaddle_full_api_shared.so PaddleLite-generic-demo/libs/PaddleLite/android/armeabi-v7a/lib/
        
  • 替换头文件后需要重新编译示例程序

其它说明

  • 由于涉及到 License 的问题,无法提供用于测试的 firmware,我们深感抱歉。如果确实对此非常感兴趣,可以参照之前提到的联系方式,直接联系MTK的销售;

  • MTK 研发同学正在持续增加用于适配 Paddle 算子 bridge/converter,以便适配更多 Paddle 模型。