\u200E
logo
中|EN
  • ···
  • 论坛
  • ···
  • GitHub
  • ···
  • ···
  • 安装
  • ···
  • 教程
  • ···
  • 文档
  • ···
  • 模型库
  • ···
  • 产品全景
  • ···
  • 应用案例
  • ···
  • 活动日历
  • ···
  • 开发者社区
  • ···
  • 资讯
  • ···
v2.2
      目录
        该文档内容对你有帮助么?
        Edit on Github
        文档反馈
        产品
        PaddleHub
        Paddle Lite
        ERNIE
        更多
        资源
        安装
        教程
        文档
        模型库
        应用案例
        友情链接
        AI开放平台
        AI Studio
        EasyDL
        BML
        百度开发者中心
        联系我们
        GitHub
        Email
        Gitee
        paddle weixin qr
        飞桨官方技术交流群
        (QQ群号:793866180)
        paddle weixin qr
        飞桨微信公众号
        ©Copyright 2020, PaddlePaddle developers. 备案号:京ICP证030173号-116京公网备案11000002000001号
        • 开始使用
        • 特性
        • 文档
          • API
          • 使用指南
        • 工具平台
          • 工具
            • AutoDL
            • PaddleHub
            • PARL
            • ERNIE
            • 全部
          • 平台
            • AI Studio
            • EasyDL
            • EasyEdge
        • 资源
          • 模型和数据集
          • 学习资料
          • 应用案例
        • v3.0
        • master
        • v2.6
        • v2.5
        • v2.4
        • v2.3
        • v2.2
        • v2.1
        • v2.0
        • v1.8
        • 中文(简)
        • English(En)
        GO API 文档 — Paddle-Inference documentation
        Paddle-Inference
        latest

        产品介绍

        • 飞桨推理产品简介
        • Paddle Inference 简介

        快速开始

        • 预测流程
        • 预测示例 (C++)
        • 预测示例 (Python)
        • 预测示例 (C)
        • 预测示例 (GO)

        使用方法

        • 源码编译
        • 飞腾/鲲鹏下从源码编译
        • 申威下从源码编译
        • 兆芯下从源码编译
        • 龙芯下从源码编译
        • 下载安装Linux预测库
        • 下载安装Windows预测库
        • 下载安装Mac预测库

        性能调优

        • 使用Paddle-TensorRT库预测
        • X86 CPU 上部署量化模型
        • X86 CPU 上部署BF16预测

        工具

        • 模型可视化
        • 模型转换工具 X2Paddle

        硬件部署示例

        • X86 Linux上预测部署示例
        • X86 Windows上预测部署示例
        • 使用昆仑预测
        • Linux上GPU预测部署示例
        • NV Jetson上预测部署示例
        • Windows上GPU预测部署示例

        Benchmark

        • 性能数据

        API 文档

        • C++ API 文档
        • Python API 文档
        • C API 文档
        • GO API 文档
          • AnalysisConfig 方法
          • Predictor 方法
          • Tensor 方法
          • 枚举类型

        FAQ

        • Paddle Inference FAQ
        • 训练推理示例说明
        Paddle-Inference
        • »
        • GO API 文档
        • View page source

        GO API 文档¶

        • AnalysisConfig 方法
          • 1. 创建 Config
          • 2. 设置预测模型
            • 2.1. 从文件中加载预测模型 - 非Combined模型
            • 2.2. 从文件中加载预测模型 - Combined 模型
          • 3. 使用 CPU 进行预测
            • 3.1. CPU 设置
            • 3.2. MKLDNN 设置
          • 4. 使用 GPU 进行预测
            • 4.1. GPU 设置
            • 4.2. TensorRT 设置
          • 5. 设置模型优化方法
          • 6. 启用内存优化
          • 7. Profile 设置
          • 8. Log 设置
          • 9. 查看config配置
        • Predictor 方法
          • 创建 Predictor
          • 输入输出与执行预测
        • Tensor 方法
        • 枚举类型
          • DataType
          • Precision
        Next Previous

        © Copyright 2020, Paddle-Inference Developer.

        Built with Sphinx using a theme provided by Read the Docs.