fused_matmul_bias¶
- paddle.incubate.nn.functional. fused_matmul_bias ( x, y, bias=None, transpose_x=False, transpose_y=False, name=None ) [源代码] ¶
应用两个张量的矩阵乘法,然后如果提供了偏置,进行偏置加法。
此方法要求 CUDA 版本不低于 11.6。
参数¶
x (Tensor) - 第一个输入
Tensor
,被乘Tensor
。y (Tensor) - 第二个输入
Tensor
,被乘Tensor
。其秩必须为 2。bias (Tensor,可选) - 输入的偏置。如果为 None,则不执行偏置加法。否则,偏置将被加到矩阵乘法结果上。默认:None。
transpose_x (bool,可选) - 是否在乘积运算前转置 \(x\)。默认:False。
transpose_y (bool,可选) - 是否在乘积运算前转置 \(y\)。默认:False。
name (str,可选) - 具体用法请参见 Name,一般无需设置,默认值为 None。
返回¶
输出 Tensor
代码示例¶
>>> import paddle
>>> from paddle.incubate.nn.functional import fused_matmul_bias
>>> paddle.set_device('gpu')
>>> x = paddle.randn([3, 5])
>>> y = paddle.randn([4, 5])
>>> bias = paddle.randn([5])
>>> out = fused_matmul_bias(x, y, bias)
>>> print(out.shape)
[3, 5]