训练时如何冻结某几层参数?
收藏
for param in encoderList[i].parameters():
param.requires_grad = False
torch里面是这样写的。paddle我在文档里找了很久也不太明白,好像是设置ParamAttr里的learn_rate.但是这个不是在网络初始化的时候设置的么,那么我希望在训练的时候改动,应该如何写代码呢?
0
收藏
请登录后评论
https://www.paddlepaddle.org.cn/documentation/docs/zh/advanced_guide/addon_development/design_idea/fluid_design_idea.html
借鉴下这个 我感觉 是 利用 执行 机制 具体 没尝试