在强化学习领域,策略学习中经常要用到梯度上升,如策略梯度算法。
但是好像主流框架都只提供了梯度下降的API,前一阵子我还在想为什么不提供一个梯度上升的API呢?
答案如下:
可以令loss = -loss,这样再梯度下降就相当于梯度上升了。
前几天,看到FutureSI大佬的一个说强化学习的帖子,就去请教了如何使用PaddlePaddle框架做梯度上升,然后被FutureSI大佬一语点醒。
开个帖子分享一下如何做梯度上升。
强化学习策略梯度那块用的,这几天我也用到了
通过修改输入图片中像素值来最大化损失,生成DeepDream图片的例子,也需要用到梯度上升。
图像这块接触的少,反正就是当我们的目标是最大化目标函数的时候,就梯度上升呗。
最大化损失?第一次遇到,哈哈哈
是的,而且是通过修改图片中的像素值来最大化Loss,比如这本很著名的书封面图片就是这样来生成的。
所以大家都没有提梯度上升了,实际上只是换个正负号就可以
前几天,看到FutureSI大佬的一个说强化学习的帖子,就去请教了如何使用PaddlePaddle框架做梯度上升,然后被FutureSI大佬一语点醒。
开个帖子分享一下如何做梯度上升。
强化学习策略梯度那块用的,这几天我也用到了
通过修改输入图片中像素值来最大化损失,生成DeepDream图片的例子,也需要用到梯度上升。
图像这块接触的少,反正就是当我们的目标是最大化目标函数的时候,就梯度上升呗。
最大化损失?第一次遇到,哈哈哈
是的,而且是通过修改图片中的像素值来最大化Loss,比如这本很著名的书封面图片就是这样来生成的。
所以大家都没有提梯度上升了,实际上只是换个正负号就可以