silu 激活层。计算公式如下:
其中,\(x\) 为输入的 Tensor
x (Tensor) - 输入的 Tensor,数据类型为:float32、float64。 name (str,可选) - 具体用法请参见 Name,一般无需设置,默认值为 None。
x (Tensor) - 输入的 Tensor,数据类型为:float32、float64。
Tensor
name (str,可选) - 具体用法请参见 Name,一般无需设置,默认值为 None。
Tensor,数据类型和形状同 x 一致。
x
import paddle import paddle.nn.functional as F x = paddle.to_tensor([1.0, 2.0, 3.0, 4.0]) out = F.silu(x) # [ 0.731059, 1.761594, 2.857722, 3.928055 ]