Loading [Contrib]/a11y/accessibility-menu.js
\u200E
ReLU
-
class
paddle.nn.
ReLU
(
name=None
)
[源代码]
ReLU激活层(Rectified Linear Unit)。计算公式如下:
\[ReLU(x) = max(0, x)\]
其中,\(x\) 为输入的 Tensor
代码示例
import paddle
x = paddle.to_tensor([-2., 0., 1.])
m = paddle.nn.ReLU()
out = m(x)
文档反馈