\u200E
logo
中|EN
  • ···
  • 论坛
  • ···
  • GitHub
  • ···
    v2.2
        目录
          该文档内容对你有帮助么?
          Edit on Github
          文档反馈
          产品
          PaddleHub
          Paddle Lite
          ERNIE
          更多
          资源
          安装
          教程
          文档
          模型库
          应用案例
          友情链接
          AI开放平台
          AI Studio
          EasyDL
          BML
          百度开发者中心
          联系我们
          GitHub
          Email
          Gitee
          paddle weixin qr
          飞桨官方技术交流群
          (QQ群号:793866180)
          paddle weixin qr
          飞桨微信公众号
          ©Copyright 2020, PaddlePaddle developers. 备案号:京ICP证030173号-116京公网备案11000002000001号
          • 开始使用
          • 特性
          • 文档
            • API
            • 使用指南
          • 工具平台
            • 工具
              • AutoDL
              • PaddleHub
              • PARL
              • ERNIE
              • 全部
            • 平台
              • AI Studio
              • EasyDL
              • EasyEdge
          • 资源
            • 模型和数据集
            • 学习资料
            • 应用案例
          • v3.0
          • master
          • v2.6
          • v2.5
          • v2.4
          • v2.3
          • v2.2
          • v2.1
          • v2.0
          • v1.8
          • 中文(简)
          • English(En)
          Python API 文档 — Paddle-Inference documentation
          Paddle-Inference
          latest

          产品介绍

          • 飞桨推理产品简介
          • Paddle Inference 简介

          快速开始

          • 预测流程
          • 预测示例 (C++)
          • 预测示例 (Python)
          • 预测示例 (C)
          • 预测示例 (GO)

          使用方法

          • 源码编译
          • 飞腾/鲲鹏下从源码编译
          • 申威下从源码编译
          • 兆芯下从源码编译
          • 龙芯下从源码编译
          • 下载安装Linux预测库
          • 下载安装Windows预测库
          • 下载安装Mac预测库

          性能调优

          • 使用Paddle-TensorRT库预测
          • X86 CPU 上部署量化模型
          • X86 CPU 上部署BF16预测

          工具

          • 模型可视化
          • 模型转换工具 X2Paddle

          硬件部署示例

          • X86 Linux上预测部署示例
          • X86 Windows上预测部署示例
          • 使用昆仑预测
          • Linux上GPU预测部署示例
          • NV Jetson上预测部署示例
          • Windows上GPU预测部署示例

          Benchmark

          • 性能数据

          API 文档

          • C++ API 文档
          • Python API 文档
            • create_predictor 方法
            • get_version 方法
            • Config 类
            • Predictor 类
            • PredictorPool 类
            • Tensor 类
            • 枚举类型
          • C API 文档
          • GO API 文档

          FAQ

          • Paddle Inference FAQ
          • 训练推理示例说明
          Paddle-Inference
          • »
          • Python API 文档
          • View page source

          Python API 文档¶

          • create_predictor 方法
          • get_version 方法
          • Config 类
            • 1. Config 类定义
            • 2. 设置预测模型
              • 2.1. 从文件中加载预测模型 - 非Combined模型
              • 2.2. 从文件中加载预测模型 - Combined 模型
              • 2.3. 从内存中加载预测模型
            • 3. 使用 CPU 进行预测
              • 3.1. CPU 设置
              • 3.2. MKLDNN 设置
            • 4. 使用 GPU 进行预测
              • 4.1. GPU 设置
              • 4.2. TensorRT 设置
            • 5. 使用 XPU 进行预测
            • 6. 设置模型优化方法
              • 6.1. IR 优化
              • 6.2. Lite 子图
            • 7. 启用内存优化
            • 8. 设置缓存路径
            • 9. Profile 设置
            • 10. Log 设置
            • 11. 查看config配置
          • Predictor 类
          • PredictorPool 类
          • Tensor 类
          • 枚举类型
            • DataType
            • PrecisionType
          Next Previous

          © Copyright 2020, Paddle-Inference Developer.

          Built with Sphinx using a theme provided by Read the Docs.