L-BFGS(Limited-memory BFGS)是一种用于无约束优化的迭代算法,属于拟牛顿法(quasi-Newton methods)的一种。它通过“有限内存”策略近似二阶信息(Hessian 或其逆矩阵),在大规模问题(参数很多)中常用于机器学习模型训练与数值优化。
/ˌɛl biː ɛf dʒiː ɛs/
We used L-BFGS to minimize the loss function.
我们使用 L-BFGS 来最小化损失函数。
Because it approximates second-order curvature with limited memory, L-BFGS often converges faster than basic gradient descent on smooth problems.
由于它用有限内存近似二阶曲率信息,L-BFGS 在平滑问题上常常比基础梯度下降收敛更快。
L-BFGS 中的 BFGS 来自四位研究者姓氏首字母:Broyden、Fletcher、Goldfarb、Shanno,是一类经典拟牛顿更新方法;前缀 L-(Limited-memory) 表示“有限内存”版本:不显式存储大矩阵,而是保存少量历史更新向量来进行近似,因此适合高维参数优化。