在 Pytorch 中设置恒定的学习率
pytorch 428
原文标题 :Setting constant learning rates in Pytorch
我正在使用 Adam 优化器使用 pytorch 优化 lstm 网络。我感觉我的学习率下降得太快了,但我什至不能 100% 确定 Adam 是否这样做,因为我找不到好的文档。如果 Adam 默认衰减学习率,有没有办法将其关闭并设置一个恒定的学习率?