You need to enable JavaScript to run this app.
\u200E
中
|
EN
···
论坛
···
GitHub
···
master
···
飞桨推理产品简介
···
Paddle Inference 简介
···
预测流程
···
预测示例 (C++)
···
预测示例 (Python)
···
预测示例 (C)
···
预测示例 (GO)
···
源码编译
···
飞腾/鲲鹏下从源码编译
···
申威下从源码编译
···
兆芯下从源码编译
···
龙芯下从源码编译
···
下载安装Linux预测库
···
下载安装Windows预测库
···
下载安装Mac预测库
···
使用Paddle-TensorRT库预测
···
X86 CPU 上部署量化模型
···
X86 CPU 上部署BF16预测
···
模型可视化
···
模型转换工具 X2Paddle
···
X86 Linux上预测部署示例
···
X86 Windows上预测部署示例
···
使用昆仑预测
···
Linux上GPU预测部署示例
···
NV Jetson上预测部署示例
···
Windows上GPU预测部署示例
···
性能数据
···
C++ API 文档
···
Python API 文档
···
C API 文档
···
GO API 文档
···
Paddle Inference FAQ
···
训练推理示例说明
···
中文(简)
CreatePredictor 方法
GetVersion 方法
Config 类
PaddlePassBuilder 类
Predictor 类
PredictorPool 类
Tensor 类
枚举类型
目录
文档
C++ API 文档
Edit on Github
C++ API 文档
¶
CreatePredictor 方法
GetVersion 方法
Config 类
1. Config 构造函数
2. 设置预测模型
2.1. 从文件中加载预测模型 - 非Combined模型
2.2. 从文件中加载预测模型 - Combined 模型
2.3. 从内存中加载预测模型
3. 使用 CPU 进行预测
3.1. CPU 设置
3.2. MKLDNN 设置
4. 使用 GPU 进行预测
4.1. GPU 设置
4.2. CUDNN 设置
4.3. TensorRT 设置
5. 使用 XPU 进行预测
6. 使用 ONNXRuntime 进行预测
7. 使用 IPU 进行预测
8. 设置模型优化方法
8.1. IR 优化
8.2. Lite 子图
9. 启用内存优化
10. 设置缓存路径
11. FC Padding
12. Profile 设置
13. Log 设置
14. 查看config配置
PaddlePassBuilder 类
Predictor 类
获取输入输出
运行和生成
PredictorPool 类
Tensor 类
枚举类型
DataType
PrecisionType
PlaceType
该文档内容对你有帮助么?
反馈
反馈问题
文档反馈
开始使用
特性
文档
API
使用指南
工具平台
工具
AutoDL
PaddleHub
PARL
ERNIE
全部
平台
AI Studio
EasyDL
EasyEdge
资源
模型和数据集
学习资料
应用案例