\u200E
logo
中|EN
  • ···
  • 论坛
  • ···
  • GitHub
  • ···
    v3.0
        目录
          该文档内容对你有帮助么?
          Edit on Github
          文档反馈
          产品
          PaddleHub
          Paddle Lite
          ERNIE
          更多
          资源
          安装
          教程
          文档
          模型库
          应用案例
          友情链接
          AI开放平台
          AI Studio
          EasyDL
          BML
          百度开发者中心
          联系我们
          GitHub
          Email
          Gitee
          paddle weixin qr
          飞桨官方技术交流群
          (QQ群号:793866180)
          paddle weixin qr
          飞桨微信公众号
          ©Copyright 2020, PaddlePaddle developers. 备案号:京ICP证030173号-116京公网备案11000002000001号
          • 开始使用
          • 特性
          • 文档
            • API
            • 使用指南
          • 工具平台
            • 工具
              • AutoDL
              • PaddleHub
              • PARL
              • ERNIE
              • 全部
            • 平台
              • AI Studio
              • EasyDL
              • EasyEdge
          • 资源
            • 模型和数据集
            • 学习资料
            • 应用案例
          • v3.0
          • master
          • v2.6
          • v2.5
          • v2.4
          • v2.3
          • v2.2
          • v2.1
          • v2.0
          • v1.8
          • 中文(简)
          • English(En)
          Config 类 — Paddle-Inference documentation
          Paddle-Inference
          latest
          • 使用指南
            • Paddle Inference 简介
              • 如何选择正确的推理引擎
              • 推理流程
              • 架构设计
              • Roadmap
            • 安装指南
              • 系统要求
              • 安装 Python API
              • 安装 C++ API
              • 安装 C API
              • 安装 Go API
              • 下载安装 Linux 推理库
              • 下载安装 Windows 推理库
              • 下载安装 Mac 推理库
              • 源码编译
                • 源码编译基础
                • Linux 下从源码编译
                • Windows 下从源码编译
                • macOS 下从源码编译
            • 快速开始
              • 快速上手Python推理
              • 快速上手C++推理
              • 快速上手C推理
              • 快速上手GO推理
            • 导出模型
              • 飞桨框架模型导出
              • 其他框架模型导出
              • 模型结构可视化
            • x86 CPU部署
              • 在x86 CPU上开发推理应用
              • 在x86 CPU上部署BF16模型
              • X86 CPU 上部署量化模型
            • NVIDIA-GPU部署
              • GPU 原生推理
              • Paddle Inference GPU 多流推理
              • 混合精度推理
              • GPU TensorRT 加速推理(NV-GPU/Jetson)
              • GPU TensorRT 低精度或量化推理
            • 其他硬件部署
              • 飞腾/鲲鹏 CPU 安装说明
              • 申威 CPU 安装说明
              • 兆芯 CPU 安装说明
              • 龙芯 CPU 安装说明
              • 昆仑 XPU 安装说明
              • AMD GPU / 海光 DCU 安装说明
              • 昇腾 NPU 安装说明
              • Graphcore IPU 安装说明
            • Paddle Inference 部署示例
            • 调试与优化
              • 精度核验与问题追查
              • 性能分析
              • 多线程并发推理
            • Benchmark
              • CPU 性能数据
              • GPU 性能数据
          • API
            • Python API 文档
              • create_predictor 方法
              • get_version 方法
              • Config 类
                • 1. Config 类定义
                • 2. 设置预测模型
                • 3. 使用 CPU 进行预测
                • 4. 使用 GPU 进行预测
                • 5. 使用 XPU 进行预测
                • 6. 使用 IPU 进行预测
                • 7. 使用 ONNXRuntime 进行预测
                • 8. 设置模型优化方法
                • 9. 启用内存优化
                • 10. 设置缓存路径
                • 11. Profile 设置
                • 12. Log 设置
                • 13. 查看config配置
              • Predictor 类
              • PredictorPool 类
              • Tensor 类
              • 枚举类型
            • C++ API 文档
              • CreatePredictor 方法
              • GetVersion 方法
              • Config 类
                • 1. Config 构造函数
                • 2. 设置预测模型
                • 3. 使用 CPU 进行预测
                • 4. 使用 GPU 进行预测
                • 5. 使用 XPU 进行预测
                • 6. 使用 ONNXRuntime 进行预测
                • 7. 使用 IPU 进行预测
                • 8. 设置模型优化方法
                • 9. 启用内存优化
                • 10. 设置缓存路径
                • 11. FC Padding
                • 12. Profile 设置
                • 13. Log 设置
                • 14. 查看config配置
              • PaddlePassBuilder 类
              • Predictor 类
              • PredictorPool 类
              • Tensor 类
              • 枚举类型
            • C API 文档
              • 枚举类型
              • 动态数组结构体
              • Config 方法
                • 1. 创建 Config
                • 2. 设置预测模型
                • 3. 使用 CPU 进行预测
                • 4. 使用 GPU 进行预测
                • 5. 使用 XPU 进行预测
                • 6. 使用 ONNXRuntime 进行推理
                • 7. 设置模型优化方法
                • 8. 启用内存优化
                • 9. 设置缓存路径
                • 10. FC Padding
                • 11. Profile 设置
                • 12. Log 设置
                • 13. 查看config配置
              • Predictor 方法
              • Tensor 方法
            • GO API 文档
              • AnalysisConfig 方法
                • 1. 创建 Config
                • 2. 设置预测模型
                • 3. 使用 CPU 进行预测
                • 4. 使用 GPU 进行预测
                • 5. 使用 ONNXRuntime 进行推理
                • 6. 设置模型优化方法
                • 7. 启用内存优化
                • 8. Profile 设置
                • 9. Log 设置
                • 10. 查看config配置
              • Predictor 方法
              • Tensor 方法
              • 枚举类型
          • 常见问题与解答
            • 环境与编译问题
            • 运行报错
            • 精度与性能
          • Config 类
          Paddle-Inference
          • »
          • API »
          • C++ API 文档 »
          • Config 类
          • View page source

          Config 类¶

          • 1. Config 构造函数
          • 2. 设置预测模型
            • 2.1. 从文件中加载预测模型
            • 2.2. 从内存中加载预测模型
          • 3. 使用 CPU 进行预测
            • 3.1. CPU 设置
            • 3.2. MKLDNN 设置
          • 4. 使用 GPU 进行预测
            • 4.1. GPU 设置
            • 4.2. TensorRT 设置
          • 5. 使用 XPU 进行预测
          • 6. 使用 ONNXRuntime 进行预测
          • 7. 使用 IPU 进行预测
          • 8. 设置模型优化方法
            • 8.1. IR 优化
            • 8.2. Lite 子图
          • 9. 启用内存优化
          • 10. 设置缓存路径
          • 11. FC Padding
          • 12. Profile 设置
          • 13. Log 设置
          • 14. 查看config配置
          Next Previous

          © Copyright 2020, Paddle-Inference Developer.

          Built with Sphinx using a theme provided by Read the Docs.