l1_loss¶
计算输入 input
和标签 label
间的 L1 loss 损失。
该损失函数的数学计算公式如下:
当 reduction 设置为 'none'
时:
\[Out = \lvert input - label\rvert\]
当 reduction 设置为 'mean'
时:
\[Out = MEAN(\lvert input - label\rvert)\]
当 reduction 设置为 'sum'
时:
\[Out = SUM(\lvert input - label\rvert)\]
参数¶
input (Tensor) - 输入的 Tensor,维度是[N, *],其中 N 是 batch size, * 是任意数量的额外维度。数据类型为:float32、float64、int32、int64。
label (Tensor) - 标签,维度是[N, *],与
input
相同。数据类型为:float32、float64、int32、int64。reduction (str,可选) - 指定应用于输出结果的计算方式,可选值有:
'none'
,'mean'
,'sum'
。默认为'mean'
,计算 L1Loss 的均值;设置为'sum'
时,计算 L1Loss 的总和;设置为'none'
时,则返回 L1Loss。name (str,可选) - 具体用法请参见 Name,一般无需设置,默认值为 None。
返回¶
Tensor
,输入 input
和标签 label
间的 L1 loss 损失。如果 reduction 是 'none'
,则输出 Loss 的形状为 [N, *],与输入 input
相同。如果 reduction 是 'mean'
或 'sum'
,则输出 Loss 的形状为 []。
代码示例¶
import paddle
input = paddle.to_tensor([[1.5, 0.8], [0.2, 1.3]])
label = paddle.to_tensor([[1.7, 1], [0.4, 0.5]])
l1_loss = paddle.nn.functional.l1_loss(input, label)
print(l1_loss)
# Tensor(shape=[], dtype=float32, place=Place(gpu:0), stop_gradient=True,
# 0.34999999)
l1_loss = paddle.nn.functional.l1_loss(input, label, reduction='none')
print(l1_loss)
# Tensor(shape=[2, 2], dtype=float32, place=Place(gpu:0), stop_gradient=True,
# [[0.20000005, 0.19999999],
# [0.20000000, 0.79999995]])
l1_loss = paddle.nn.functional.l1_loss(input, label, reduction='sum')
print(l1_loss)
# Tensor(shape=[], dtype=float32, place=Place(gpu:0), stop_gradient=True,
# 1.39999998)