一个完美的dataset应该长什么样?
我认为应该有以下几点:
1.可以对train数据进行数据增强。问题是数据增强放哪一块?我想一次多重增强,比如5倍增强。
2.可以按比例随机抽取划分训练集和测试集。问题是怎么做?感觉我都是写死在里头的,每次实例化后就固定了,是不是不合适?有没有解决办法?
期待大佬们打个样!
可以把数据增强处理都定义成op,然后建立op列表,再在__geiitem__里执行
我觉得完美的dataset不应该有数据增强【狗头】
应该是读完数据后写一个数据增强函数,再把加载的数据丢进去返回新的reader
这样思路清晰很多
reader可以解决
现在2.0淘汰reader吗?
反正我哭了,我觉得我玩不转
我同意,搞数据集去~~
我觉你说得对
哈哈,这是套件大佬的思路,我也是学习~
项目简单的话,这样做有道理
文档推荐用DataLoader
长什么样子
没有的话会不会精度会上不去
随机抽取好像可以做到吧
reader loader我都傻傻分不清
熟能生巧
+1
厉害哦
我觉得一些封装过于厉害的dataset有个比较严重的问题,看不到数据原样。进而衍生出一个问题,比如mnist,我会分类了,那我现在有个自己的数据集,该咋用?
我指的是那种直接连下载一步搞定的dataset……
可以把数据增强处理都定义成op,然后建立op列表,再在__geiitem__里执行
我觉得完美的dataset不应该有数据增强【狗头】
应该是读完数据后写一个数据增强函数,再把加载的数据丢进去返回新的reader
这样思路清晰很多
reader可以解决
现在2.0淘汰reader吗?
反正我哭了,我觉得我玩不转
我同意,搞数据集去~~
我觉你说得对
哈哈,这是套件大佬的思路,我也是学习~
项目简单的话,这样做有道理
文档推荐用DataLoader
长什么样子
没有的话会不会精度会上不去
随机抽取好像可以做到吧
reader loader我都傻傻分不清
熟能生巧
+1
厉害哦
我觉得一些封装过于厉害的dataset有个比较严重的问题,看不到数据原样。进而衍生出一个问题,比如mnist,我会分类了,那我现在有个自己的数据集,该咋用?
我指的是那种直接连下载一步搞定的dataset……