主页

索引

模块索引

搜索页面

Kullback-Leibler 散度

  • Kullback-Leibler (KL) 散度,又称为相对熵,是一种衡量两个概率分布之间差异的非对称度量

  • KL散度用于计算一个概率分布 𝑃 和另一个概率分布 𝑄 之间的信息差异,反映了从 𝑄 的角度来看,使用 𝑃 分布进行建模的“成本”。

  • KL散度的数学表达式如下:

\[D_{\mathrm{KL}}(P \| Q)=\sum_{x} P(x) \log \left(\frac{P(x)}{Q(x)}\right)\]
  • 其中:
    • 𝑃(𝑥) 是实际的分布,通常被视为“真实”的概率分布

    • 𝑄(𝑥) 是预测的分布或假设的分布

  • KL散度的值始终是非负的,即 \(𝐷_{KL}(𝑃∣∣𝑄)≥0\) ,并且只有当 𝑃(𝑥)=𝑄(𝑥)x 对于所有 𝑥 都成立时,KL散度为零。

KL散度的性质

  • 非对称性:KL散度是非对称的,即 \(𝐷_{KL}(𝑃∣∣𝑄)≠𝐷_{KL}(𝑄∣∣𝑃)\)

  • 信息量度:KL散度衡量了使用 𝑄 来近似 𝑃 时损失的信息量。越大意味着 𝑄 分布和 𝑃 分布之间的差距越大。

  • 在优化中的应用:KL散度广泛应用于机器学习,尤其是在变分推理、生成对抗网络(GANs)和信息论中。

主页

索引

模块索引

搜索页面