V2EX  ›  英汉词典

Entropy Regularization

定义 Definition

熵正则化:一种在优化/机器学习中加入的额外项,用来鼓励模型输出更“分散”、更不确定(更高熵),从而提升探索性、避免过早变得过于自信或陷入局部最优。常见于强化学习(鼓励策略探索)与概率模型(防止过度尖锐的分布)。

发音 Pronunciation (IPA)

/ˈɛntrəpi ˌrɛɡjələraɪˈzeɪʃən/

例句 Examples

Entropy regularization encourages the policy to explore more.
熵正则化会鼓励策略进行更多探索。

By adding an entropy regularization term to the loss, the model avoids collapsing to overly confident predictions and can generalize better under uncertainty.
在损失函数中加入熵正则化项后,模型可以避免坍缩为过度自信的预测,并在不确定性下更好地泛化。

词源 Etymology

Entropy(熵)”源自希腊语词根 *en-*(“在……之内”)与 tropē(“转变/变化”),用来描述系统的无序程度或不确定性;“regularization(正则化)”来自 regular(“规则的”)→ regularize(“使规则化/使规范化”)加名词后缀 -ation,表示“通过加入约束项来使模型更稳定、更不易过拟合”。合起来即“用熵作为约束/偏好来影响学习过程”。

相关词 Related Words

文学与经典作品 Literary Works

  • Reinforcement Learning: An Introduction(Sutton & Barto):在讨论策略改进与探索相关方法时常涉及熵/随机性鼓励项的思想背景。
  • Soft Actor-Critic: Off-Policy Maximum Entropy Deep Reinforcement Learning with a Stochastic Actor(Haarnoja 等):以最大熵框架为核心,熵正则化是关键机制之一。
  • A Tutorial on Information Theory(Cover & Thomas 相关教材体系的入门材料常见):用信息论视角解释熵,并为“用熵作为优化偏好/约束”的方法提供理论基础。
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   3140 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 11ms · UTC 13:32 · PVG 21:32 · LAX 06:32 · JFK 09:32
♥ Do have faith in what you're doing.