5. 使用 ONNXRuntime 进行推理¶
API定义如下:
// 启用 ONNXRuntime 进行推理
// 参数:None
// 返回:None
func (config *Config) EnableONNXRuntime()
// 禁用 ONNXRuntime 进行推理
// 参数:None
// 返回:None
func (config *Config) DisableONNXRuntime();
// 判断是否启用 ONNXRuntime
// 参数:None
// 返回:bool - 是否启用 ONNXRuntime
func (config *Config) ONNXRuntimeEnabled() bool;
// 启用 ONNXRuntime 推理时开启优化
// 参数:None
// 返回:None
func (config *Config) EnableORTOptimization();
ONNXRuntime设置代码示例:
package main
// 引入 Paddle Golang Package
import pd "github.com/paddlepaddle/paddle/paddle/fluid/inference/goapi"
import fmt
func main() {
// 创建 Config 对象
config := pd.NewConfig()
// 启用 ONNXRuntime 进行推理
config.EnableONNXRuntime()
// 通过 API 获取 ONNXRuntime 信息
fmt.Println("Use ONNXRuntime is: ", config.ONNXRuntimeEnabled()) // True
// 开启ONNXRuntime优化
config.EnableORTOptimization();
// 禁用 ONNXRuntime 进行推理
config.DisableONNXRuntime()
// 通过 API 获取 ONNXRuntime 信息
fmt.Println("Use ONNXRuntime is: ", config.ONNXRuntimeEnabled()) // False
}