| ReLU 函数在 x> 0 的时候也是线性的,套 ReLU 函数是怎么实现激活作用的? 机器学习 • lisisi • Dec 23, 2024 • Lastly replied by sanebow | 4 |
| Pytorch 中正确的使用 softmax 的方法是什么? Python • LeeReamond • Nov 19, 2021 • Lastly replied by linbo0518 | 7 |
| AlexNET 训练准确率奇差,可能是什么原因导致的? 问与答 • Richard14 • Nov 15, 2021 • Lastly replied by kilasuelika | 1 |
| 请问深度学习在初学阶段,经典的几个模型的训练准确率,正常应该是多少? 问与答 • Richard14 • Nov 14, 2021 • Lastly replied by Richard14 | 2 |
| 在神经网络中容易出现梯度爆炸的问题,有的地方说是可以用 relu 激活函数来解决,用起来也确实有效果,有点想不通这里面的原理是什么呢? 机器学习 • alixali • Oct 23, 2018 • Lastly replied by alixali | 2 |
| [机器学习]常用激活函数的总结与比较
2 程序员 • livc • Feb 13, 2017 • Lastly replied by bestswifter
|
14 |