6. 使用 ONNXRuntime 进行预测¶
API定义如下:
# 启用 ONNXRuntime 进行预测
# 参数:None
# 返回:None
paddle.inference.Config.enable_onnxruntime();
# 禁用 ONNXRuntime 进行预测
# 参数:None
# 返回:None
paddle.inference.Config.disable_onnxruntime();
# 判断是否启用 ONNXRuntime
# 参数:None
# 返回:bool - 是否启用 ONNXRuntime
paddle.inference.Config.onnxruntime_enabled();
# 启用 ONNXRuntime 预测时开启优化
# 参数:None
# 返回:None
paddle.inference.Config.enable_ort_optimization();
ONNXRuntime设置代码示例:
# 引用 paddle inference 预测库
import paddle.inference as paddle_infer
# 创建 config
config = paddle_infer.Config("model.pdmodel", "model.pdiparams")
# 启用 ONNXRuntime 进行预测
config.enable_onnxruntime()
# 通过 API 获取 ONNXRuntime 信息
print("Use ONNXRuntime is: {}".format(config.onnxruntime_enabled())) # True
# 开启ONNXRuntime优化
config.enable_ort_optimization();
// 设置 ONNXRuntime 算子计算线程数为 10
config.set_cpu_math_library_num_threads(10)
# 禁用 ONNXRuntime 进行预测
config.DisableONNXRuntime();
# 通过 API 获取 ONNXRuntime 信息
print("Use ONNXRuntime is: {}".format(config.onnxruntime_enabled())) # false