强化学习总结
收藏
之所以打算看强化学习7日打卡营, 是冲着百度NeurIPS全球顶会冠军团队授课的噱头去的.
不得不说科老师课程规划的非常好. 之前有试着听<<百度架构师手把手教深度学习>>和<<机器学习的思考故事>>, 都只听了很少的一部分, 感觉这些重要, 不过真的离实践太远了. 但强化学习这门课和实践的结合非常强, 是一边讲原理, 一边讲案例. 基本上每节课看了2~3次(对我这种比较笨的)就能自己尝试使用了.
课程本身就讲的很好, 我这里只说几个重要的, 强化学习简写RL, 飞桨的RL解决方案是PARL. 让人感兴趣的点有:
1. PARL这个框架把强化学习分为智能Agent、模型Model和算法Algorithm这三个部分
2. RAPL封装了大部分常用算法
个人感觉: 强化学习的基本学习方式是从sarsa, q-learning演化出来的, 不同算法的差异是在信息传递的方式. 学习RL的根本目的还是解决未知和开放(近似无限)的问题.
要赞扬一下百度AI Studio平台所提供的视频+源码+文档+免费算力的一条龙式在线教育服务,为学习人工智能而缺乏硬件基础的同学提供了极大的便利。
0
收藏
请登录后评论
嗯,然后引入深度卷积网络,就更燃了~~
加油!共同进步!