熵正则化:一种在优化/机器学习中加入的额外项,用来鼓励模型输出更“分散”、更不确定(更高熵),从而提升探索性、避免过早变得过于自信或陷入局部最优。常见于强化学习(鼓励策略探索)与概率模型(防止过度尖锐的分布)。
/ˈɛntrəpi ˌrɛɡjələraɪˈzeɪʃən/
Entropy regularization encourages the policy to explore more.
熵正则化会鼓励策略进行更多探索。
By adding an entropy regularization term to the loss, the model avoids collapsing to overly confident predictions and can generalize better under uncertainty.
在损失函数中加入熵正则化项后,模型可以避免坍缩为过度自信的预测,并在不确定性下更好地泛化。
“Entropy(熵)”源自希腊语词根 *en-*(“在……之内”)与 tropē(“转变/变化”),用来描述系统的无序程度或不确定性;“regularization(正则化)”来自 regular(“规则的”)→ regularize(“使规则化/使规范化”)加名词后缀 -ation,表示“通过加入约束项来使模型更稳定、更不易过拟合”。合起来即“用熵作为约束/偏好来影响学习过程”。