\u200E
logo
中|EN
  • ···
  • 论坛
  • ···
  • GitHub
  • ···
    v2.10
    关于Paddle Lite
    使用指南
    应用实践
    API文档
    常见问题与解答
      目录
        该文档内容对你有帮助么?
        Edit on Github
        文档反馈
        产品
        PaddleHub
        Paddle Lite
        ERNIE
        更多
        资源
        安装
        教程
        文档
        模型库
        应用案例
        友情链接
        AI开放平台
        AI Studio
        EasyDL
        BML
        百度开发者中心
        联系我们
        GitHub
        Email
        Gitee
        paddle weixin qr
        飞桨官方技术交流群
        (QQ群号:793866180)
        paddle weixin qr
        飞桨微信公众号
        ©Copyright 2020, PaddlePaddle developers. 备案号:京ICP证030173号-116京公网备案11000002000001号
        • 开始使用
        • 特性
        • 文档
          • API
          • 使用指南
        • 工具平台
          • 工具
            • AutoDL
            • PaddleHub
            • PARL
            • ERNIE
            • 全部
          • 平台
            • AI Studio
            • EasyDL
            • EasyEdge
        • 资源
          • 模型和数据集
          • 学习资料
          • 应用案例
        • develop
        • v2.12
        • v2.11
        • v2.10
        • v2.9
        • v2.8
        • v2.7
        • v2.6
        • v2.3
        • 中文(简)
        • English(En)
        Python API 文档 — Paddle-Inference documentation
        Paddle-Inference
        latest

        产品介绍

        • 飞桨推理产品简介
        • Paddle Inference 简介

        快速开始

        • 预测流程
        • 预测示例 (C++)
        • 预测示例 (Python)
        • 预测示例 (C)
        • 预测示例 (GO)

        使用方法

        • 源码编译
        • 飞腾/鲲鹏下从源码编译
        • 申威下从源码编译
        • 兆芯下从源码编译
        • 龙芯下从源码编译
        • 下载安装Linux预测库
        • 下载安装Windows预测库
        • 下载安装Mac预测库

        性能调优

        • 使用Paddle-TensorRT库预测
        • X86 CPU 上部署量化模型
        • X86 CPU 上部署BF16预测

        工具

        • 模型可视化
        • 模型转换工具 X2Paddle

        硬件部署示例

        • X86 Linux上预测部署示例
        • X86 Windows上预测部署示例
        • 使用昆仑预测
        • Linux上GPU预测部署示例
        • NV Jetson上预测部署示例
        • Windows上GPU预测部署示例

        Benchmark

        • 性能数据

        API 文档

        • C++ API 文档
        • Python API 文档
          • create_predictor 方法
          • get_version 方法
          • Config 类
          • Predictor 类
          • PredictorPool 类
          • Tensor 类
          • 枚举类型
        • C API 文档
        • GO API 文档

        FAQ

        • Paddle Inference FAQ
        • 训练推理示例说明
        Paddle-Inference
        • »
        • Python API 文档
        • View page source

        Python API 文档¶

        • create_predictor 方法
        • get_version 方法
        • Config 类
          • 1. Config 类定义
          • 2. 设置预测模型
            • 2.1. 从文件中加载预测模型 - 非Combined模型
            • 2.2. 从文件中加载预测模型 - Combined 模型
            • 2.3. 从内存中加载预测模型
          • 3. 使用 CPU 进行预测
            • 3.1. CPU 设置
            • 3.2. MKLDNN 设置
          • 4. 使用 GPU 进行预测
            • 4.1. GPU 设置
            • 4.2. TensorRT 设置
          • 5. 使用 XPU 进行预测
          • 6. 使用 ONNXRuntime 进行预测
          • 7. 设置模型优化方法
            • 7.1. IR 优化
            • 7.2. Lite 子图
          • 8. 启用内存优化
          • 9. 设置缓存路径
          • 10. Profile 设置
          • 11. Log 设置
          • 12. 查看config配置
        • Predictor 类
        • PredictorPool 类
        • Tensor 类
        • 枚举类型
          • DataType
          • PrecisionType
        Next Previous

        © Copyright 2020, Paddle-Inference Developer.

        Built with Sphinx using a theme provided by Read the Docs.