save_inference_model¶
- paddle.static. save_inference_model ( path_prefix, feed_vars, fetch_vars, executor, **kwargs ) ¶
将模型及其参数保存到指定的路径。例如,path_prefix="PATH/modelname"
,在调用 save_inference_model(path_prefix, feed_vars, fetch_vars, executor)
之后,你可以在 PATH
目录下找到两个文件,分别是 modelname.pdmodel
和 modelname.pdiparams
,前者表示序列化之后的模型文件,后者表示序列化之后的参数文件。
参数¶
path_prefix (str) – 要保存到的目录 + 模型名称(不包含后缀)。
feed_vars (Variable | list[Variable]) – 模型的所有输入变量。
fetch_vars (Variable | list[Variable]) – 模型的所有输出变量。
executor (Executor) – 用于保存预测模型的
executor
,详见 执行器 。kwargs - 支持的 key 包括 'program'和 'clip_extra'。(注意:kwargs 主要是用来做反向兼容的)。
program - 指定想要序列化的 program,默认使用 default_main_program。
clip_extra - 保存模型 program 时是否对每个算子附加额外的参数进行裁剪,默认值为 True(即默认会裁剪掉算子非标准定义的参数)。
返回¶
无。
代码示例¶
COPY-FROM: paddle.static.save_inference_model