依概率收敛:在概率论中,一列随机变量 \(X_n\) 依概率收敛到随机变量 \(X\),指的是对任意 \(\varepsilon>0\),当 \(n\to\infty\) 时, \[ P\big(|X_n - X|>\varepsilon\big)\to 0. \] 直观地说:随着 \(n\) 增大,\(X_n\) 偏离 \(X\) 超过任意给定误差阈值的“概率”会越来越小。(它是“随机变量收敛”的常见形式之一;还有“几乎处处收敛”“分布收敛”等。)
/kənˈvɝːdʒəns ɪn ˌprɑːbəˈbɪləti/
As the sample size increases, the sample mean shows convergence in probability to the true mean.
随着样本量增加,样本均值会依概率收敛到真实均值。
Under mild conditions, convergence in probability implies that estimation errors become negligible for large datasets, even though occasional large deviations may still occur.
在较温和的条件下,依概率收敛意味着当数据集足够大时估计误差总体上会变得可以忽略,尽管仍可能偶尔出现较大的偏差。
convergence 来自拉丁语词根 *con-*(共同、一起)与 vergere(趋向、转向),组合含义为“向同一处靠拢、汇聚”。在数学与概率论语境中,“convergence”引申为“(序列/过程)趋向某个极限”。“in probability”说明这里的“趋向”是通过概率意义来刻画的:偏离极限的概率趋于 0。