You need to enable JavaScript to run this app.
\u200E
开始使用
特性
文档
API
使用指南
工具平台
工具
AutoDL
PaddleHub
PARL
ERNIE
全部
平台
AI Studio
EasyDL
EasyEdge
资源
模型和数据集
学习资料
应用案例
v3.0
master
v2.6
v2.5
v2.4
v2.3
v2.2
v2.1
v2.0
v1.8
中文(简)
English(En)
C++ API 文档 — Paddle-Inference documentation
Paddle-Inference
latest
使用指南
Paddle Inference 简介
如何选择正确的推理引擎
推理流程
架构设计
Roadmap
安装指南
系统要求
安装 Python API
安装 C++ API
安装 C API
安装 Go API
下载安装 Linux 推理库
下载安装 Windows 推理库
下载安装 Mac 推理库
源码编译
源码编译基础
Linux 下从源码编译
Windows 下从源码编译
macOS 下从源码编译
快速开始
快速上手Python推理
快速上手C++推理
快速上手C推理
快速上手GO推理
导出模型
飞桨框架模型导出
其他框架模型导出
模型结构可视化
x86 CPU部署
在x86 CPU上开发推理应用
在x86 CPU上部署BF16模型
X86 CPU 上部署量化模型
NVIDIA-GPU部署
GPU 原生推理
Paddle Inference GPU 多流推理
混合精度推理
GPU TensorRT 加速推理(NV-GPU/Jetson)
GPU TensorRT 低精度或量化推理
其他硬件部署
飞腾/鲲鹏 CPU 安装说明
申威 CPU 安装说明
兆芯 CPU 安装说明
龙芯 CPU 安装说明
昆仑 XPU 安装说明
AMD GPU / 海光 DCU 安装说明
昇腾 NPU 安装说明
Graphcore IPU 安装说明
Paddle Inference 部署示例
调试与优化
精度核验与问题追查
混合精度推理diff原因排查方法
性能分析
多线程并发推理
Benchmark
CPU 性能数据
GPU 性能数据
API
Python API 文档
create_predictor 方法
get_version 方法
convert_to_mixed_precision 方法
Config 类
1. Config 类定义
2. 设置预测模型
3. 使用 CPU 进行预测
4. 使用 GPU 进行预测
5. 使用 XPU 进行预测
6. 使用 IPU 进行预测
7. 使用 ONNXRuntime 进行预测
8. 设置模型优化方法
9. 启用内存优化
10. 设置缓存路径
11. Profile 设置
12. Log 设置
13. 查看config配置
Predictor 类
PredictorPool 类
Tensor 类
枚举类型
C++ API 文档
CreatePredictor 方法
GetVersion 方法
ConvertToMixedPrecision 方法
Config 类
1. Config 构造函数
2. 设置预测模型
3. 使用 CPU 进行预测
4. 使用 GPU 进行预测
5. 使用 XPU 进行预测
6. 使用 ONNXRuntime 进行预测
7. 使用 IPU 进行预测
8. 设置模型优化方法
9. 启用内存优化
10. 设置缓存路径
11. FC Padding
12. Profile 设置
13. Log 设置
14. 查看config配置
PaddlePassBuilder 类
Predictor 类
PredictorPool 类
Tensor 类
枚举类型
C API 文档
枚举类型
动态数组结构体
Config 方法
1. 创建 Config
2. 设置预测模型
3. 使用 CPU 进行预测
4. 使用 GPU 进行预测
5. 使用 XPU 进行预测
6. 使用 ONNXRuntime 进行推理
7. 设置模型优化方法
8. 启用内存优化
9. 设置缓存路径
10. FC Padding
11. Profile 设置
12. Log 设置
13. 查看config配置
Predictor 方法
Tensor 方法
GO API 文档
AnalysisConfig 方法
1. 创建 Config
2. 设置预测模型
3. 使用 CPU 进行预测
4. 使用 GPU 进行预测
5. 使用 ONNXRuntime 进行推理
6. 设置模型优化方法
7. 启用内存优化
8. Profile 设置
9. Log 设置
10. 查看config配置
Predictor 方法
Tensor 方法
枚举类型
常见问题与解答
环境与编译问题
运行报错
精度与性能
C++ API 文档
Paddle-Inference
»
API
»
C++ API 文档
View page source
C++ API 文档
¶
CreatePredictor 方法
GetVersion 方法
ConvertToMixedPrecision 方法
Config 类
1. Config 构造函数
2. 设置预测模型
2.1. 从文件中加载预测模型
2.2. 从内存中加载预测模型
3. 使用 CPU 进行预测
3.1. CPU 设置
3.2. MKLDNN 设置
4. 使用 GPU 进行预测
4.1. GPU 设置
4.2. TensorRT 设置
5. 使用 XPU 进行预测
6. 使用 ONNXRuntime 进行预测
7. 使用 IPU 进行预测
8. 设置模型优化方法
8.1. IR 优化
8.2. Lite 子图
9. 启用内存优化
10. 设置缓存路径
11. FC Padding
12. Profile 设置
13. Log 设置
14. 查看config配置
PaddlePassBuilder 类
Predictor 类
获取输入输出
运行和生成
获取 OP 中间输出 paddle_infer::Tensor
PredictorPool 类
Tensor 类
一、paddle_infer::Tensor
二、paddle::Tensor
枚举类型
DataType
PrecisionType
PlaceType