首页 炼丹房 帖子详情
主流的学习率下降策略有哪些?
收藏
快速回复
炼丹房 其他学习资料 735 2
主流的学习率下降策略有哪些?
收藏
快速回复
炼丹房 其他学习资料 735 2

学习率下降基本上是训练时候用到的相对来说高阶的技巧了,如果在打比赛时候想再提升零点几个点,可以选用这个办法。主流的下降策略有:

1. piecewise_decay(阶梯式下降学习率)

2. polynomial_decay(多项式下降)

3. exponential_decay(指数下降)

4.  cosine_decay(余弦下降)

其中cosine_decay无需调整超参数,鲁棒性也比较高,是现在提高模型精度首选的学习率下降方式。

1
收藏
回复
全部评论(2)
时间顺序
DeepGeGe
#2 回复于2021-12

 学习率是通过损失函数的梯度调整网络权重的超参数的速度。学习率越低,损失函数的变化速度就越慢。虽然使用低学习率可以确保不会错过任何局部极小值,但也意味着将花费更长的时间来进行收敛,特别是在被困在高原区域的情况下。在整个训练过程中,我们不能使用同样的学习率来更新权重,否则无法到达最优点,所以需要在训练过程中调整学习率的大小。在训练初始阶段,由于权重处于随机初始化的状态,损失函数相对容易进行梯度下降,所以可以设置一个较大的学习率。在训练后期,由于权重参数已经接近最优值,较大的学习率无法进一步寻找最优值,所以需要设置一个较小的学习率。

0
回复
Zidane
#3 回复于2022-04

 cosine_decay是不是比较万能了

0
回复
在@后输入用户全名并按空格结束,可艾特全站任一用户