首页 Paddle框架 帖子详情
如何查看优化器生成的学习率? 已解决
收藏
快速回复
Paddle框架 问答深度学习模型训练 1848 7
如何查看优化器生成的学习率? 已解决
收藏
快速回复
Paddle框架 问答深度学习模型训练 1848 7

使用 Optimizer 的 get_lr ( ) 可以得到经过策略(分段衰减、余弦衰减)计算的学习率。如何得到经过优化器计算后,用来乘以梯度的那个学习率呢?

AIStudio810260
已解决
6# 回复于2021-05
虽然论坛改版可以点进头像查项目了,还是建议直接甩项目出来嘛(别谦虚哈哈),方便大家阅读。 我猜是这个: 炼丹不可不知的学习率策略 https://aistudio.baidu.com/aistudio/projectdetail/1830074
展开
2
收藏
回复
全部评论(7)
时间顺序
AIStudio810258
#2 回复于2021-05

模型前向、反向计算已经对齐的情况下,执行优化器的 backward() 方法后更新的权重却不一样。如果使用 SGD 这样没有参数的优化器就能对齐更新的梯度和计算的loss,如果换成 Momentum 或 adam 优化器就对不齐了。推测是优化器算出来的学习率不同导致的相同的梯度,却更新出来的权重是不同的。

0
回复
AIStudio810258
#3 回复于2021-05

adam 的两个 beta 参数,epsilon 项设置是相同的,但就是更新后的权重不同,难道 adam 的实现还有用了其它的改进么?

0
回复
AIStudio810258
#4 回复于2021-05
adam 的两个 beta 参数,epsilon 项设置是相同的,但就是更新后的权重不同,难道 adam 的实现还有用了其它的改进么?

其它改进版本应该封装成其它优化器了吧。。。adam 应该实现都一样吧

0
回复
AIStudio810260
#6 回复于2021-05

虽然论坛改版可以点进头像查项目了,还是建议直接甩项目出来嘛(别谦虚哈哈),方便大家阅读。

我猜是这个:

炼丹不可不知的学习率策略 https://aistudio.baidu.com/aistudio/projectdetail/1830074

1
回复
AIStudio810258
#7 回复于2021-05
虽然论坛改版可以点进头像查项目了,还是建议直接甩项目出来嘛(别谦虚哈哈),方便大家阅读。 我猜是这个: 炼丹不可不知的学习率策略 https://aistudio.baidu.com/aistudio/projectdetail/1830074
展开

灰常感谢,这个总结很全面啊

0
回复
AIStudio810260
#8 回复于2021-05
灰常感谢,这个总结很全面啊

哈哈,既然觉得这个回复不错,不妨设为最佳回复试试

0
回复
AIStudio810258
#9 回复于2021-05
哈哈,既然觉得这个回复不错,不妨设为最佳回复试试

是说解决方案吧,已经设了

0
回复
需求/bug反馈?一键提issue告诉我们
发现bug?如果您知道修复办法,欢迎提pr直接参与建设飞桨~
在@后输入用户全名并按空格结束,可艾特全站任一用户