gelu¶
gelu 激活层(GELU Activation Operator)
逐元素计算 gelu 激活函数。更多细节请参考 Gaussian Error Linear Units 。
如果使用近似计算:
\[gelu(x) = 0.5 * x * (1 + tanh(\sqrt{\frac{2}{\pi}} * (x + 0.044715x^{3})))\]
如果不使用近似计算:
\[gelu(x) = 0.5 * x * (1 + erf(\frac{x}{\sqrt{2}}))\]
其中,\(x\) 为输入的 Tensor。
参数¶
x (Tensor) - 输入的
Tensor
,数据类型为:float32、float64。approximate (bool,可选) - 是否使用近似计算,默认值为 False,表示不使用近似计算。
name (str,可选) - 具体用法请参见 Name,一般无需设置,默认值为 None。
返回¶
Tensor
,数据类型和形状同x
一致。
代码示例¶
import paddle
import paddle.nn.functional as F
x = paddle.to_tensor([[-1, 0.5], [1, 1.5]])
out1 = F.gelu(x)
# [[-0.15865529, 0.34573123],
# [ 0.84134471, 1.39978933]]
out2 = F.gelu(x, True)
# [[-0.15880799, 0.34571400],
# [ 0.84119201, 1.39957154]]