L1Loss¶
创建一个 L1Loss 的可调用类,L1Loss 计算输入 input 和标签 label 间的 L1 loss 损失。
该损失函数的数学计算公式如下:
当 reduction 设置为 'none'
时:
\[Out = \lvert input - label\rvert\]
当 reduction 设置为 'mean'
时:
\[Out = MEAN(\lvert input - label\rvert)\]
当 reduction 设置为 'sum'
时:
\[Out = SUM(\lvert input - label\rvert)\]
参数¶
reduction (str,可选) - 指定应用于输出结果的计算方式,可选值有:
'none'
,'mean'
,'sum'
。默认为'mean'
,计算 L1Loss 的均值;设置为'sum'
时,计算 L1Loss 的总和;设置为'none'
时,则返回 L1Loss。name (str,可选) - 具体用法请参见 Name,一般无需设置,默认值为 None。
形状¶
input (Tensor):输入的 Tensor,维度是[N, *],其中 N 是 batch size, * 是任意数量的额外维度。数据类型为:float32、float64、int32、int64。
label (Tensor):标签,维度是[N, *],与
input
相同。数据类型为:float32、float64、int32、int64。output (Tensor):输入
input
和标签label
间的 L1 loss 损失。如果 reduction 是'none'
,则输出 Loss 的维度为 [N, *],与输入input
相同。如果 reduction 是'mean'
或'sum'
,则输出 Loss 的维度为 []。
代码示例¶
import paddle
input = paddle.to_tensor([[1.5, 0.8], [0.2, 1.3]])
label = paddle.to_tensor([[1.7, 1], [0.4, 0.5]])
l1_loss = paddle.nn.L1Loss()
output = l1_loss(input, label)
print(output)
# Tensor(shape=[], dtype=float32, place=Place(gpu:0), stop_gradient=True,
# 0.34999999)
l1_loss = paddle.nn.L1Loss(reduction='sum')
output = l1_loss(input, label)
print(output)
# Tensor(shape=[], dtype=float32, place=Place(gpu:0), stop_gradient=True,
# 1.39999998)
l1_loss = paddle.nn.L1Loss(reduction='none')
output = l1_loss(input, label)
print(output)
# Tensor(shape=[2, 2], dtype=float32, place=Place(gpu:0), stop_gradient=True,
# [[0.20000005, 0.19999999],
# [0.20000000, 0.79999995]])