SoftmaxTransform¶
Softmax 变换,首先进行 \(y = exp(x)\) 变换,然后归一化。
Softmax 变换将向量变换为单纯形。
注解
Softmax 不是双射函数,所以 forward_log_det_jacobian
、inverse_log_det_jacobian
未实现。
代码示例¶
import paddle
x = paddle.ones((2,3))
t = paddle.distribution.SoftmaxTransform()
print(t.forward(x))
# Tensor(shape=[2, 3], dtype=float32, place=Place(gpu:0), stop_gradient=True,
# [[0.33333334, 0.33333334, 0.33333334],
# [0.33333334, 0.33333334, 0.33333334]])
print(t.inverse(t.forward(x)))
# Tensor(shape=[2, 3], dtype=float32, place=Place(gpu:0), stop_gradient=True,
# [[-1.09861231, -1.09861231, -1.09861231],
# [-1.09861231, -1.09861231, -1.09861231]])
方法¶
forward(x)¶
计算正变换 \(y=f(x)\) 的结果。
参数
x (Tensor) - 正变换输入参数,通常为 Distribution 的随机采样结果。
返回
y (Tensor) - 正变换的计算结果。
forward_log_det_jacobian(x)¶
计算正变换雅可比行列式绝对值的对数。
如果变换不是一一映射,则雅可比矩阵不存在,返回 NotImplementedError
。
参数
x (Tensor) - 输入参数。
返回
Tensor,正变换雅可比行列式绝对值的对数。
inverse_log_det_jacobian(y)¶
计算逆变换雅可比行列式绝对值的对数。
与 forward_log_det_jacobian
互为负数。
参数
y (Tensor) - 输入参数。
返回
Tensor,逆变换雅可比行列式绝对值的对数。