relu 激活层(Rectified Linear Unit)。计算公式如下:
其中,\(x\) 为输入的 Tensor
x (Tensor) - 输入的 Tensor,数据类型为:float32、float64。 name (str,可选) - 具体用法请参见 Name,一般无需设置,默认值为 None。
x (Tensor) - 输入的 Tensor,数据类型为:float32、float64。
Tensor
name (str,可选) - 具体用法请参见 Name,一般无需设置,默认值为 None。
Tensor,数据类型和形状同 x 一致。
x
import paddle import paddle.nn.functional as F x = paddle.to_tensor([-2, 0, 1], dtype='float32') out = F.relu(x) print(out) # [0., 0., 1.]