fused_linear_activation

paddle.incubate.nn.functional. fused_linear_activation ( x, y, bias, trans_x=False, trans_y=False, activation=None ) [源代码]

全连接线性和激活变换操作符。该方法要求 CUDA 版本大于等于 11.6 。

参数

  • x (Tensor) – 需要进行乘法运算的输入 Tensor 。

  • y (Tensor) – 需要进行乘法运算的权重 Tensor 。它的阶数必须为 2。

  • bias (Tensor) – 输入的偏置 Tensor,该偏置会加到矩阵乘法的结果上。

  • trans_x (bool, 可选) - 是否在乘法之前对 x 进行矩阵转置。

  • trans_y (bool, 可选) - 是否在乘法之前对 y 进行矩阵转置。

  • activation (str, 可选) - 目前,可用的激活函数仅限于“GELU”(高斯误差线性单元)和“ReLU”(修正线性单元)。这些激活函数应用于添加偏置之后的输出上。默认值:None。

返回

Tensor,变换之后的 Tensor。

代码示例

>>> import paddle
>>> from paddle.incubate.nn.functional import fused_linear_activation

>>> paddle.set_device('gpu')
>>> x = paddle.randn([3, 4])
>>> weight = paddle.randn([4, 5])
>>> bias = paddle.randn([5])
>>> out = fused_linear_activation(x, weight, bias)
>>> print(out.shape)
[3, 5]