Rényi 散度(也译作“瑞尼散度”)是信息论与统计学中的一种衡量两个概率分布差异的指标,记作 \(D_\alpha(P\|Q)\)。它由参数 \(\alpha\)(阶数)控制:不同的 \(\alpha\) 会强调分布差异的不同方面。它是 KL 散度(Kullback–Leibler divergence) 的推广;当 \(\alpha \to 1\) 时会收敛到 KL 散度。(在实际应用中常要求 \(P\) 相对于 \(Q\) 满足一定的可比性/支持集条件。)
/ˈreɪnji dɪˈvɝːdʒəns/
The Rényi divergence helps compare two probability distributions.
Rényi 散度有助于比较两个概率分布之间的差异。
In privacy analysis, bounds based on Rényi divergence can provide tighter guarantees than those using only KL divergence.
在隐私分析中,基于 Rényi 散度的界有时能给出比只用 KL 散度更紧的保证。
“Rényi”来自匈牙利数学家 Alfréd Rényi(阿尔弗雷德·瑞尼) 的姓氏;“divergence”在信息论语境中指“分布之间的偏离/差异度量”。Rényi 散度作为一族参数化的散度,用来统一和扩展多种分布差异度量(其中最著名的极限情形之一是 KL 散度)。