conv1d¶
- paddle.nn.functional. conv1d ( x, weight, bias=None, stride=1, padding=0, dilation=1, groups=1, data_format='NCL', name=None ) [源代码] ¶
一维卷积层(convolution1d layer),根据输入、卷积核、步长(stride)、填充(padding)、空洞大小(dilation)一组参数计算输出特征层大小。输入和输出是 NCL 或 NLC 格式,其中 N 是批尺寸,C 是通道数,L 是长度。卷积核是 MCL 格式,M 是输出图像通道数,C 是输入图像通道数,L 是卷积核长度。如果组数(groups)大于 1,C 等于输入图像通道数除以组数的结果。详情请参考 UFLDL's : 卷积 。如果 bias_attr 不为 False,卷积计算会添加偏置项。如果指定了激活函数类型,相应的激活函数会作用在最终结果上。
对每个输入 X,有等式:
其中:
\(X\):输入值,NCL 或 NLC 格式的 3-D Tensor
\(W\):卷积核值,MCL 格式的 3-D Tensor
\(*\):卷积操作
\(b\):偏置值,2-D Tensor,形状为
[M,1]
\(\sigma\):激活函数
\(Out\):输出值,NCL 或 NLC 格式的 3-D Tensor,和
X
的形状可能不同
示例
输入:
输入形状:\((N,C_{in},L_{in})\)
卷积核形状:\((C_{out},C_{in},L_{f})\)
输出:
输出形状:\((N,C_{out},L_{out})\)
其中
如果 padding
= "SAME":
如果 padding
= "VALID":
参数¶
x (Tensor) - 输入是形状为 \([N, C, L]\) 或 \([N, L, C]\) 的 4-D Tensor,N 是批尺寸,C 是通道数,L 是特征长度,数据类型为 float16, float32 或 float64。
weight (Tensor) - 形状为 \([M, C/g, kL]\) 的卷积核。M 是输出通道数,g 是分组的个数,kL 是卷积核的长度度。
bias (int|list|tuple,可选) - 偏置项,形状为:\([M,]\) 。
stride (int|list|tuple,可选) - 步长大小。卷积核和输入进行卷积计算时滑动的步长。整数或包含一个整数的列表或元组。默认值:1。
padding (int|list|tuple|str,可选) - 填充大小。可以是以下三种格式:(1)字符串,可以是"VALID"或者"SAME",表示填充算法,计算细节可参考下述
padding
= "SAME"或padding
= "VALID" 时的计算公式。(2)整数,表示在输入特征两侧各填充padding
大小的 0。(3)包含一个整数的列表或元组,表示在输入特征两侧各填充padding[0]
大小的 0。默认值:0。dilation (int|list|tuple,可选) - 空洞大小。空洞卷积时会使用该参数,卷积核对输入进行卷积时,感受野里每相邻两个特征点之间的空洞信息。整数或包含一个整型数的列表或元组。默认值:1。
groups (int,可选) - 一维卷积层的组数。根据 Alex Krizhevsky 的深度卷积神经网络(CNN)论文中的成组卷积:当 group=n,输入和卷积核分别根据通道数量平均分为 n 组,第一组卷积核和第一组输入进行卷积计算,第二组卷积核和第二组输入进行卷积计算,……,第 n 组卷积核和第 n 组输入进行卷积计算。默认值:1。
data_format (str,可选) - 指定输入的数据格式,输出的数据格式将与输入保持一致,可以是"NCL"和"NLC"。N 是批尺寸,C 是通道数,L 是特征长度。默认值:"NCL"。
name (str,可选) - 具体用法请参见 Name,一般无需设置,默认值为 None。
返回¶
3-D Tensor,数据类型与 x
一致。返回卷积的结果。
代码示例¶
import paddle
import paddle.nn.functional as F
x = paddle.to_tensor([[[4, 8, 1, 9],
[7, 2, 0, 9],
[6, 9, 2, 6]]], dtype="float32")
w = paddle.to_tensor([[[9, 3, 4],
[0, 0, 7],
[2, 5, 6]],
[[0, 3, 4],
[2, 9, 7],
[5, 6, 8]]], dtype="float32")
y = F.conv1d(x, w)
print(y)
# Tensor(shape=[1, 2, 2], dtype=float32, place=Place(gpu:0), stop_gradient=True,
# [[[133., 238.],
# [160., 211.]]])