Paddle Lite 介绍
快速开始
源码编译
程序开发
多硬件部署示例
性能优化
开发者贡献
训练示例(预览)
API文档
FAQ
训练推理示例说明
以下介绍了该工作流程的每一个步骤,并提供了进一步说明的链接:
您可以通过以下方式生成 Paddle Lite 模型:
将 Paddle 模型转换为 Paddle Lite 模型:使用 opt 工具 将 Paddle 模型转换为 Paddle Lite 模型。在转换过程中,您可以应用量化等优化措施,以缩减模型大小和缩短延时,并最大限度降低或完全避免准确率损失。
推断是指在设备上执行 Paddle Lite 模型,以便根据输入数据进行预测的过程。您可以通过以下方式运行推断:
使用 Paddle Lite API,在多个平台和语言中均受支持(如 Java、C++、Python)
配置参数(MobileConfig),设置模型来源等
MobileConfig
创建推理器(Predictor),调用 CreatePaddlePredictor 接口即可创建
Predictor
CreatePaddlePredictor
设置模型输入,通过 predictor->GetInput(i) 获取输入变量,并为其指定大小和数值
predictor->GetInput(i)
执行预测,只需要调用 predictor->Run()
predictor->Run()
获得输出,使用 predictor->GetOutput(i) 获取输出变量,并通过 data<T> 取得输出值
predictor->GetOutput(i)
data<T>