Dropout¶
- class paddle.fluid.dygraph. Dropout ( p=0.5, seed=None, dropout_implementation='downgrade_in_infer', is_test=False ) [源代码] ¶
丢弃或者保持输入的每个元素独立。Dropout是一种正则化手段,通过在训练过程中阻止神经元节点间的相关性来减少过拟合。根据给定的丢弃概率,dropout操作符按丢弃概率随机将一些神经元输出设置为0,其他的仍保持不变。
Dropout层可以删除,提高执行效率。
参数¶
p (float32,可选) - 输入单元的丢弃概率,即输入单元设置为0的概率。默认值:0.5
seed (int,可选) - 整型数据,用于创建随机种子。如果该参数设为None,则使用随机种子。注:如果给定一个整型种子,始终丢弃相同的输出单元。训练过程中勿用固定不变的种子。默认值:None。
dropout_implementation (str,可选) - 丢弃单元的方式,有两种'downgrade_in_infer'和'upscale_in_train'两种选择,默认:'downgrade_in_infer'。具体作用可以参考一下描述。
downgrade_in_infer(default),在预测时减小输出结果
train: out = input * mask
inference: out = input * (1.0 - p)
(mask是一个张量,维度和输入维度相同,值为0或1,值为0的比例即为
p
)upscale_in_train,增加训练时的结果
train: out = input * mask / ( 1.0 - p )
inference: out = input
(mask是一个张量,维度和输入维度相同,值为0或1,值为0的比例即为
p
)is_test (bool,可选) - 标记是否是测试阶段。此标志仅对静态图模式有效。对于动态图模式,请使用
eval()
接口。默认:False。
返回¶
无
代码示例¶
import paddle.fluid as fluid
from paddle.fluid.dygraph.base import to_variable
import numpy as np
x = np.random.random(size=(3, 10, 3, 7)).astype('float32')
with fluid.dygraph.guard():
x = to_variable(x)
m = fluid.dygraph.Dropout(p=0.5)
droped_train = m(x)
# switch to eval mode
m.eval()
droped_eval = m(x)