You need to enable JavaScript to run this app.
\u200E
开始使用
特性
文档
API
使用指南
工具平台
工具
AutoDL
PaddleHub
PARL
ERNIE
全部
平台
AI Studio
EasyDL
EasyEdge
资源
模型和数据集
学习资料
应用案例
develop
v2.12
v2.11
v2.10
v2.9
v2.8
v2.7
v2.6
v2.3
中文(简)
English(En)
C++ API 文档 — Paddle-Inference documentation
Paddle-Inference
latest
产品介绍
飞桨推理产品简介
Paddle Inference 简介
快速开始
预测流程
预测示例 (C++)
预测示例 (Python)
预测示例 (C)
预测示例 (GO)
使用方法
源码编译
飞腾/鲲鹏下从源码编译
申威下从源码编译
兆芯下从源码编译
龙芯下从源码编译
下载安装Linux预测库
下载安装Windows预测库
下载安装Mac预测库
性能调优
使用Paddle-TensorRT库预测
X86 CPU 上部署量化模型
X86 CPU 上部署BF16预测
工具
模型可视化
模型转换工具 X2Paddle
硬件部署示例
X86 Linux上预测部署示例
X86 Windows上预测部署示例
使用昆仑预测
Linux上GPU预测部署示例
NV Jetson上预测部署示例
Windows上GPU预测部署示例
Benchmark
性能数据
API 文档
C++ API 文档
CreatePredictor 方法
GetVersion 方法
Config 类
PaddlePassBuilder 类
Predictor 类
PredictorPool 类
Tensor 类
枚举类型
Python API 文档
C API 文档
GO API 文档
FAQ
Paddle Inference FAQ
训练推理示例说明
Paddle-Inference
»
C++ API 文档
View page source
C++ API 文档
¶
CreatePredictor 方法
GetVersion 方法
Config 类
1. Config 构造函数
2. 设置预测模型
2.1. 从文件中加载预测模型 - 非Combined模型
2.2. 从文件中加载预测模型 - Combined 模型
2.3. 从内存中加载预测模型
3. 使用 CPU 进行预测
3.1. CPU 设置
3.2. MKLDNN 设置
4. 使用 GPU 进行预测
4.1. GPU 设置
4.2. CUDNN 设置
4.3. TensorRT 设置
5. 使用 XPU 进行预测
6. 使用 ONNXRuntime 进行预测
7. 使用 IPU 进行预测
8. 设置模型优化方法
8.1. IR 优化
8.2. Lite 子图
9. 启用内存优化
10. 设置缓存路径
11. FC Padding
12. Profile 设置
13. Log 设置
14. 查看config配置
PaddlePassBuilder 类
Predictor 类
获取输入输出
运行和生成
PredictorPool 类
Tensor 类
枚举类型
DataType
PrecisionType
PlaceType