Opt¶
class Opt;
Opt
模型离线优化接口,Paddle原生模型需经opt
优化图结构后才能在Paddle-Lite上运行。
示例:
假设待转化模型问当前文件夹下的mobilenet_v1
,可以使用以下脚本转换
# 引用Paddlelite预测库
from paddlelite.lite import *
# 1. 创建opt实例
opt=Opt()
# 2. 指定输入模型地址
opt.set_model_dir("./mobilenet_v1")
# 3. 指定转化类型: arm、x86、opencl、xpu、npu
opt.set_valid_places("arm")
# 4. 指定模型转化类型: naive_buffer、protobuf
opt.set_model_type("naive_buffer")
# 4. 输出模型地址
opt.set_optimize_out("mobilenetv1_opt")
# 5. 执行模型优化
opt.run()
set_model_type(type)
¶
设置模型的输出类型,当前支持naive_buffer
和protobuf
两种格式,移动端预测需要转化为naive_buffer
。
naive_buffer
的优化后模型为以.nb
名称结尾的单个文件。protobuf
的优化后模型为文件夹下的model
和params
两个文件。将model
重命名为__model__
用Netron打开,即可查看优化后的模型结构。
参数:
type(str)
- 模型格式(naive_buffer/protobuf
)
set_valid_places(valid_places)
¶
设置可用的places列表。
参数:
valid_places(str)
- 可用place列表,不同place用,
隔开
示例:
# 引用Paddlelite预测库
from paddlelite.lite import *
# 1. 创建opt实例
opt=Opt()
# 2. 指定转化类型: arm、x86、opencl、xpu、npu
opt.set_valid_places("arm, opencl")
run()
¶
执行模型优化,用以上接口设置完 模型路径
、model_type
、optimize_out
和valid_places
后,执行run()
接口会根据以上设置转化模型,转化后模型保存在当前路径下。
run_optimize(model_dir, model_file, param_file, type, valid_places, optimized_model_name)
¶
执行模型优化,无需设置以上接口,直接指定 模型路径
、model_type
、optimize_out
和valid_places
并执行模型转化。
参数:
model_dir(str)
- 模型文件夹路径model_file(str)
- 模型文件路径param_file(str)
- 模型文件路径type(str)
- 模型格式(naive_buffer/protobuf
)valid_places(str)
- 可用place列表,不同place用,
隔开optimized_model_name(str)
# 引用Paddlelite预测库
from paddlelite.lite import *
# 1. 创建opt实例
opt=Opt()
# 2. 执行模型优化
opt.run_optimize("./mobilenet_v1","","","arm","mobilenetv1_opt");