You need to enable JavaScript to run this app.
\u200E
开始使用
特性
文档
API
使用指南
工具平台
工具
AutoDL
PaddleHub
PARL
ERNIE
全部
平台
AI Studio
EasyDL
EasyEdge
资源
模型和数据集
学习资料
应用案例
develop
v2.12
v2.11
v2.10
v2.9
v2.8
v2.7
v2.6
v2.3
中文(简)
English(En)
Config 方法 — Paddle-Inference documentation
Paddle-Inference
latest
产品介绍
飞桨推理产品简介
Paddle Inference 简介
快速开始
预测流程
预测示例 (C++)
预测示例 (Python)
预测示例 (C)
预测示例 (GO)
使用方法
源码编译
飞腾/鲲鹏下从源码编译
申威下从源码编译
兆芯下从源码编译
龙芯下从源码编译
下载安装Linux预测库
下载安装Windows预测库
下载安装Mac预测库
性能调优
使用Paddle-TensorRT库预测
X86 CPU 上部署量化模型
X86 CPU 上部署BF16预测
工具
模型可视化
模型转换工具 X2Paddle
硬件部署示例
X86 Linux上预测部署示例
X86 Windows上预测部署示例
使用昆仑预测
Linux上GPU预测部署示例
NV Jetson上预测部署示例
Windows上GPU预测部署示例
Benchmark
性能数据
API 文档
C++ API 文档
Python API 文档
C API 文档
枚举类型
动态数组结构体
Config 方法
1. 创建 Config
2. 设置预测模型
3. 使用 CPU 进行预测
4. 使用 GPU 进行预测
5. 使用 XPU 进行预测
6. 设置模型优化方法
7. 启用内存优化
8. 设置缓存路径
9. FC Padding
10. Profile 设置
11. Log 设置
12. 查看config配置
Predictor 方法
Tensor 方法
GO API 文档
FAQ
Paddle Inference FAQ
训练推理示例说明
Paddle-Inference
»
C API 文档
»
Config 方法
View page source
Config 方法
¶
1. 创建 Config
2. 设置预测模型
2.1. 从文件中加载预测模型 - 非 Combined 模型
2.2. 从文件中加载预测模型 - Combined 模型
2.3. 从内存中加载预测模型
3. 使用 CPU 进行预测
3.1. CPU 设置
3.2. MKLDNN 设置
4. 使用 GPU 进行预测
4.1. GPU 设置
4.2. CUDNN 设置
4.3. TensorRT 设置
5. 使用 XPU 进行预测
6. 设置模型优化方法
6.1. IR 优化
6.2. Lite子图
7. 启用内存优化
8. 设置缓存路径
9. FC Padding
10. Profile 设置
11. Log 设置
12. 查看config配置