You need to enable JavaScript to run this app.
\u200E
开始使用
特性
文档
API
使用指南
工具平台
工具
AutoDL
PaddleHub
PARL
ERNIE
全部
平台
AI Studio
EasyDL
EasyEdge
资源
模型和数据集
学习资料
应用案例
v3.0
master
v2.6
v2.5
v2.4
v2.3
v2.2
v2.1
v2.0
v1.8
中文(简)
English(En)
API — Paddle-Inference documentation
Paddle-Inference
latest
使用指南
Paddle Inference 简介
如何选择正确的推理引擎
推理流程
架构设计
Roadmap
安装指南
系统要求
安装 Python API
安装 C++ API
下载安装 Linux 推理库
下载安装 Windows 推理库
下载安装 Mac 推理库
源码编译
源码编译基础
Linux 下从源码编译
Windows 下从源码编译
macOS 下从源码编译
快速开始
快速上手Python推理
快速上手C++推理
导出模型
飞桨框架模型导出
其他框架模型导出
模型结构可视化
x86 CPU部署
在x86 CPU上开发推理应用
在x86 CPU上部署BF16模型
X86 CPU 上部署量化模型
NVIDIA-GPU部署
GPU 原生推理
Paddle Inference GPU 多流推理
混合精度推理
GPU TensorRT 加速推理(NV-GPU/Jetson)
GPU TensorRT 低精度或量化推理
其他硬件部署
飞腾/鲲鹏 CPU 安装说明
申威 CPU 安装说明
兆芯 CPU 安装说明
龙芯 CPU 安装说明
昆仑 XPU 安装说明
AMD GPU / 海光 DCU 安装说明
昇腾 NPU 安装说明
Graphcore IPU 安装说明
Paddle Inference 部署示例
调试与优化
精度核验与问题追查
混合精度推理diff原因排查方法
性能分析
多线程并发推理
Benchmark
CPU 性能数据
GPU 性能数据
API
Python API 文档
create_predictor 方法
get_version 方法
convert_to_mixed_precision 方法
Config 类
1. Config 类定义
2. 设置预测模型
3. 使用 CPU 进行预测
4. 使用 GPU 进行预测
5. 使用 XPU 进行预测
6. 使用 IPU 进行预测
7. 使用 ONNXRuntime 进行预测
8. 设置模型优化方法
9. 启用内存优化
10. 设置缓存路径
11. Profile 设置
12. Log 设置
13. 查看config配置
Predictor 类
PredictorPool 类
Tensor 类
枚举类型
C++ API 文档
CreatePredictor 方法
GetVersion 方法
ConvertToMixedPrecision 方法
Config 类
1. Config 构造函数
2. 设置预测模型
3. 使用 CPU 进行预测
4. 使用 GPU 进行预测
5. 使用 XPU 进行预测
6. 使用 ONNXRuntime 进行预测
7. 使用 IPU 进行预测
8. 设置模型优化方法
9. 启用内存优化
10. 设置缓存路径
11. FC Padding
12. Profile 设置
13. Log 设置
14. 查看config配置
PaddlePassBuilder 类
Predictor 类
PredictorPool 类
Tensor 类
枚举类型
常见问题与解答
环境与编译问题
运行报错
精度与性能
API
Paddle-Inference
»
API
View page source
API
¶
您可以通过以下四种官方支持的API来使用Paddle Inference开发您的应用
Python API 文档
C++ API 文档