关于飞桨的推广问题
收藏
刚刚百度客服打电话回访,和客服说了些关于飞桨的一些问题,客服说会反馈给飞桨团队。
个人认为百度飞桨的推广可以做一些改进。
先说下当下的现状。
看了百度出的7天学强化学习,里面要用的parl框架(个人觉得parl框架不如直接用fluid简单,可能我研究的东西比较简单。还有一层原因,因为tf没有parl框架,用了parl怕以后不好和tf对接)
看完了强化学习的DQN知识,我想代码实现下,于是百度搜索相关代码。结果是tf 实现DQN, pytorch实现DQN。。。。。没有一个paddle 实现DQN的,其他的深度学习的情况也比较相同
虽然想支持国产,但是这种情况有心无力。
个人对飞桨推广的建议。
1.对于一些常见的深度学习问题,强化学习问题,让一些博主写文章利用飞桨解决。然后百度一搜相关问题,出现飞桨对这些问题的解决。(当下真的是百度一搜全是tf, torch,感觉只有一小部分人再玩paddle,而且有点关起门来玩的样子)
2.关于AI社区的问题,我没有怎么逛ai社区。之前研究RT-thread的时候看过他们的社区好像有专门的人在社区解答问题。感觉AI社区可以借鉴下。
3.关于百度出品的课程。不太清除百度出品这些课程是面向研究人员还是工业应用。有些问题例如有一起的yolo问题,好像是直接调用模型解决的,感觉这样有些的细致的问题讲解的不够。可能对于研究人员来说不太。。。。
以上仅个人看法,可能很多问题很片面。虽然很片面,但还是希望能够被官方采纳。因为有的问题真的是,想用飞桨,但是没有好的例程。
0
收藏
哦哦,原来Paddle以前也可以自适应啊。
不过不是很理解这个自适应有什么用》
比如Conv2D层,我输入一个batch_size为32的一个channel的128*128的图片,在Paddle上是需要定义输入数据的类型,大小之类的值,但是如果用tensorflow的Model类,会直接自己计算得到。你要做的,就是把自己的数据输入。
tensorflow更多的是高度集成的操作命令,比如Model这个函数,集成了适应compile,训练fit,预测predict,评估evaluate等等。这种高度的集成使得内部的优化程度可能更高,比如调用Model现成的函数,计算速度可能更快(我猜的)。
是啊,现在改成必须指定第一维度为batch_size,以前如果是图像数据只用写3个维度
1. 非常感谢对PARL的关注,国内强化学习起步比国外晚,加上tf和torch总用户量比paddle大很多,网上的资料确实不多,推荐使用关键词 PARL DQN 搜索DQN相关的paddle实现,在使用PARL中有任何问题,都可以去github提issue反馈给我们^_^。
2. PARL是一个高性能、灵活的强化学习框架,提供多种主流强化学习算法的实现和大规模并行支持,扩展性较好,方便【科研人员】快速复现论文结果,迁移算法到不同的环境调研;也方便【工业应用】使用大规模分布式能力,快速迭代上线。
3. 欢迎直接使用fluid复现简单的RL算法,当然更欢迎使用PARL,PARL框架是对强化学习算法的框架抽象,可以和深度学习框架解耦,对于PARL的使用推荐访问https://github.com/PaddlePaddle/PARL,里面有丰富的例程,零基础同学推荐观看PaddlePaddle推出的《强化学习7日打卡营》课程
我也觉得还是加上输入维度参数更好,程序更清晰。
不然出错了,不好定位哪一层网络的毛病
反正这就是一种矛盾,你自己需要定制的细节越多,模型越容易把控,但是编程的难度越大。不需要操心的越多,编程越方便,但是出错了不好定位错误在哪。
不过有些东西是开发者都默认的内容,也很奇怪
我觉得你好像说反了
额。。。反过来貌似也没啥毛病哈哈哈。
我觉得如果是学术上要用,可以去加那个论文复现的群效果是不是会更好点,好像有大佬指导啥的
哪个群啊
最好是我写代码时不用声明;我写错了时系统自动给出详细的错误定位信息,最好还打印出网络结构。
我学习例程时,老师的代码显示声明、详细注释;我懂了后自己写程序时则可以偷懒。
这样就不矛盾了~~
我觉得你提到的框架对数据的自适应能力还是个大大的优点,就像python之于C++一样。Paddle以后估计也会吸收这个特性吧。
偷懒是是促进科技进步的第一动力!
最好是细分一下。一个学习研究模式、一个快速工业部署模式。好像就是动态图、静态图吧。
我想这些也都在摸索当中吧。如果已经有了定论,今天大家也就没必要讨论了,框架一定将这些结论实现了。
反着说,方便就是不同的意思了。一个是指学习、勘错方便;一个是指开发、部署方便。
7月中旬开一个论文复现课。前期班班给想报名的拉了个群。
当时扫码进的,叫“百度飞桨论文复现预备班”