主流的学习率下降策略有哪些?
收藏
学习率下降基本上是训练时候用到的相对来说高阶的技巧了,如果在打比赛时候想再提升零点几个点,可以选用这个办法。主流的下降策略有:
1. piecewise_decay(阶梯式下降学习率)
2. polynomial_decay(多项式下降)
3. exponential_decay(指数下降)
4. cosine_decay(余弦下降)
其中cosine_decay无需调整超参数,鲁棒性也比较高,是现在提高模型精度首选的学习率下降方式。
1
收藏
请登录后评论
学习率是通过损失函数的梯度调整网络权重的超参数的速度。学习率越低,损失函数的变化速度就越慢。虽然使用低学习率可以确保不会错过任何局部极小值,但也意味着将花费更长的时间来进行收敛,特别是在被困在高原区域的情况下。在整个训练过程中,我们不能使用同样的学习率来更新权重,否则无法到达最优点,所以需要在训练过程中调整学习率的大小。在训练初始阶段,由于权重处于随机初始化的状态,损失函数相对容易进行梯度下降,所以可以设置一个较大的学习率。在训练后期,由于权重参数已经接近最优值,较大的学习率无法进一步寻找最优值,所以需要设置一个较小的学习率。
cosine_decay是不是比较万能了