conv1d_transpose

conv1d_transpose

conv1d_transpose

paddle.nn.functional.

conv1d_transpose

(

x,

weight,

bias=None,

stride=1,

padding=0,

output_padding=0,

groups=1,

dilation=1,

output_size=None,

data_format='NCL',

name=None

)

[源代码]

一维转置卷积层(Convlution1D transpose layer)

该层根据输入(input)、卷积核(kernel)和空洞大小(dilations)、步长(stride)、填充(padding)来计算输出特征层大小或者通过 output_size 指定输出特征层大小。输入(Input)和输出(Output)为 NCL 或 NLC 格式,其中 N 为批尺寸,C 为通道数(channel),L 为特征层长度。卷积核是 MCL 格式,M 是输出图像通道数,C 是输入图像通道数,L 是卷积核长度。如果组数大于 1,C 等于输入图像通道数除以组数的结果。转置卷积的计算过程相当于卷积的反向计算。转置卷积又被称为反卷积(但其实并不是真正的反卷积)。欲了解转置卷积层细节,请参考下面的说明和 参考文献_。如果参数 bias_attr 不为 False,转置卷积计算会添加偏置项。如果 act 不为 None,则转置卷积计算之后添加相应的激活函数。

输入 \(X\) 和输出 \(Out\) 函数关系如下:

\[\begin{split}Out=\sigma (W*X+b)\\\end{split}\]

其中:

\(X\):输入,具有 NCL 或 NLC 格式的 3-D Tensor

\(W\):卷积核,具有 NCL 格式的 3-D Tensor

\(*\):卷积计算(注意:转置卷积本质上的计算还是卷积)

\(b\):偏置(bias),2-D Tensor,形状为 [M,1]

\(σ\):激活函数

\(Out\):输出值,NCL 或 NLC 格式的 3-D Tensor,和 X 的形状可能不同

示例

输入:

输入 Tensor 的形状:\((N,C_{in}, L_{in})\)

卷积核的形状:\((C_{in}, C_{out}, L_f)\)

输出:

输出 Tensor 的形状:\((N,C_{out}, L_{out})\)

其中

\[\begin{split}& L'_{out} = (L_{in}-1)*stride - padding * 2 + dilation*(L_f-1)+1\\ & L_{out}\in[L'_{out},L'_{out} + stride)\end{split}\]

如果 padding = "SAME":

\[L'_{out} = \frac{(L_{in} + stride - 1)}{stride}\]

如果 padding = "VALID":

\[L'_{out} = (L_{in}-1)*stride + dilation*(L_f-1)+1\]

备注

如果 output_size 为 None,则 \(L_{out}\) = \(L^\prime_{out}\);否则,指定的 output_size(输出特征层的长度) \(L_{out}\) 应当介于 \(L^\prime_{out}\) 和 \(L^\prime_{out} + stride\) 之间(不包含 \(L^\prime_{out} + stride\) )。

由于转置卷积可以当成是卷积的反向计算,而根据卷积的输入输出计算公式来说,不同大小的输入特征层可能对应着相同大小的输出特征层,所以对应到转置卷积来说,固定大小的输入特征层对应的输出特征层大小并不唯一。

参数

x (Tensor) - 输入是形状为 \([N, C, L]\) 或 \([N, L, C]\) 的 3-D Tensor,N 是批尺寸,C 是通道数,L 是特征长度,数据类型为 float16, float32 或 float64。

weight (Tensor) - 形状为 \([C, M/g, kL]\) 的卷积核(卷积核)。 M 是输出通道数,g 是分组的个数,kL 是卷积核的长度。

bias (int|list|tuple,可选) - 偏置项,形状为:\([M,]\) 。

stride (int|list|tuple,可选) - 步长大小。整数或包含一个整数的列表或元组。默认值:1。

padding (int|list|tuple|str,可选) - 填充大小。可以是以下三种格式:(1)字符串,可以是"VALID"或者"SAME",表示填充算法,计算细节可参考下述 padding = "SAME"或 padding = "VALID" 时的计算公式。(2)整数,表示在输入特征两侧各填充 padding 大小的 0。(3)包含一个整数的列表或元组,表示在输入特征两侧各填充 padding[0] 大小的 0。默认值:0。

output_padding (int|list|tuple,可选) - 输出形状上尾部一侧额外添加的大小。默认值:0。

groups (int,可选) - 一维卷积层的组数。根据 Alex Krizhevsky 的深度卷积神经网络(CNN)论文中的成组卷积:当 group=n,输入和卷积核分别根据通道数量平均分为 n 组,第一组卷积核和第一组输入进行卷积计算,第二组卷积核和第二组输入进行卷积计算,……,第 n 组卷积核和第 n 组输入进行卷积计算。默认值:1。

dilation (int|list|tuple,可选) - 空洞大小。空洞卷积时会使用该参数,卷积核对输入进行卷积时,感受野里每相邻两个特征点之间的空洞信息。整数或包含一个整数的列表或元组。默认值:1。

output_size (int|list|tuple,可选) - 输出尺寸,整数或包含一个整数的列表或元组。如果为 None,则会用 filter_size(weight``的 shape), ``padding 和 stride 计算出输出特征图的尺寸。默认值:None。

data_format (str,可选) - 指定输入的数据格式,输出的数据格式将与输入保持一致,可以是"NCL"和"NLC"。N 是批尺寸,C 是通道数,L 是特征长度。默认值:"NCL"。

name (str,可选) - 具体用法请参见 api_guide_Name,一般无需设置,默认值为 None。

返回

3-D Tensor,数据类型与 input 一致。如果未指定激活层,则返回转置卷积计算的结果,如果指定激活层,则返回转置卷积和激活计算之后的最终结果。

代码示例

>>> import paddle

>>> import paddle.nn.functional as F

>>> # shape: (1, 2, 4)

>>> x = paddle.to_tensor([[[4, 0, 9, 7],

>>> [8, 0, 9, 2,]]], dtype="float32")

>>> # shape: (2, 1, 2)

>>> w = paddle.to_tensor([[[7, 0]],

>>> [[4, 2]]], dtype="float32")

>>> y = F.conv1d_transpose(x, w)

>>> print(y)

Tensor(shape=[1, 1, 5], dtype=float32, place=Place(cpu), stop_gradient=True,

[[[60., 16., 99., 75., 4. ]]])

相关作品