首页 版块 访问AI主站 注册 发帖
189******30
1
积分 积分商城
148
获赞
【百度技术学院机器学习训练营第二期】-实验作业
Ta的回复 :1.不加BN对简单网络影响有限,三层网络梯度没那么容易消失吧。增加卷积层数能够提升模型学习更多不同“粒度”下图片特征的能力,增加全连接层能够提升模型分类的“非线性能力”以提升分类精确度 。 2.(1)SGD随机抽取数据收敛较慢;Momentum通过累加梯度加速,比SGD收敛快;Adagrad除以历史梯度的平方叠加,使收敛开始加速,逐渐减速;Adam通过计算梯度的一阶矩估计和二阶矩估计而为不同的参数设计独立的自适应性学习率,结合了Adagrad和RMSProp的长处,是入门使用的最佳选择。这些优化算法本质上都是对SGD收敛速度的优化,主要优化模型的学习速度,而非分类能力。(2)交叉熵不但能反应模型分类的准确与否,还能反应其分类匹配的程度用作梯度下降的依据。如果用分类准确率作为损失函数的话,模型可能会优先选择分类准确率更高的参数,而非匹配度更高的。而模型应当通过匹配度来学习图片数据中的分类特征。那些恰好准确率高而匹配度低的参数是没有学习价值的,是干扰。 3.学习充分的模型的准确率在增加数据量的过程中应该呈对数增长吧,增加数据对准确率的提升应当是逐渐减小的。如果是类似于线性的增长,说明当前的数据量对于此能力的模型来说还不够。当然,能力强的模型对数据量的要求更小。我觉得对一个系统来说,性能的上限是数据决定的。好的模型只能更近更快逼地近这个上限。而且只要每天有新的事物产生,就会产生新的数据。所以理论上分类万事万物是不可能的,就像尺子的刻度永远不能超过尺子本身的长度一样吧。但是对实际应用来说,“人工智能”的性能只要超过“人工”的性能或性价比就有应用价值了吧。 4.自己手机拍*-的照片识别率较低。考虑可能是由于拍摄设备的色差,光线等导致。解决思路:对训练模型的数据和预测数据进行相同的灰度化,自动色阶这样的“归一化”处理,使模型更专注的学习图片的轮廓和纹理特征。
65
【有奖互动】EasyDL直播课后交流贴
Ta的回复 :报到。希望回放快快上线。
71
7天打卡课心得
Ta的回复 :加油,加油,用小果班主任的语气是:冲鸭!
26
原帖已删除
Ta的回复 :已阅
0
终于通过初级认证考试
Ta的回复 :恭喜楼主
25
7天打卡课心得
Ta的回复 :我悲催了。5个作业和考试大部分都是100和95。但有一个59。题目每读清楚。以为图片放在output目录里就行了。原来要求贴在notebook里。
26
原帖已删除
Ta的回复 :试试
0
抗击新冠肺炎,众志成城,我们在行动
Ta的回复 :顶
17
不能连续重复存储优化器参数的问题
Ta的回复 :我这里把模型参数和优化器参数手工存在了硬盘文件上了,以便继续训练时读取。
8
【求助帖】这是什么情况,一直加载不出来
Ta的回复 :最近有遇到这个的,已解决。
3
7天打卡课心得
Ta的回复 :训练营二期
26
7天打卡课心得
Ta的回复 :我这几天老告诉我闺女考试要认真读题...爸爸还在终身学习...结果...
26
我用百度AI语音做了一个虚拟现实小伙伴!
Ta的回复 :赞。个人觉得现阶段VR比AR更能在实际场景发挥作用。
3
不能连续重复存储优化器参数的问题
Ta的回复 :https://aistudio.baidu.com/bdvgpu/user/76563/251082/notebooks/251082.ipynb?redirects=1 我现在除了训练结束时一同存储优化器参数,其他都只是存储模型参数。
8
7天打卡课心得
Ta的回复 :兄弟告诉你个当爹地的秘密:这种囧事不能随便让那些小家伙知道,不然威严扫地,家庭秩序奔溃。只有当她们需要鼓励时才讲这个故事。嘿嘿
26
不能连续重复存储优化器参数的问题
Ta的回复 :https://aistudio.baidu.com/aistudio/projectdetail/251082 https://aistudio.baidu.com/aistudio/education/group/info/888 这个是课程里的项目
8
不能连续重复存储优化器参数的问题
Ta的回复 :那个是课程里的项目,我只能编辑,无法公开。后来我把课程项目复制到自己的项目,整理代码时发现我在尝试多次存储优化器的参数没成功后只是把重复存储优化器的那行代码给注释了,而在继续训练时读取的代码却没有删除读取优化器的部分。所以再次存储时造成的那个框架报错。那时,优化器的参数确实是空的。后来运行框架再也不保错了。谢谢。项目我也公开了,里面我加了一些数据增广的代码和大家交流。https://aistudio.baidu.com/aistudio/projectDetail/271017
8
kmeans聚类anchor框代码分享
Ta的回复 :[代码]
1
7天打卡课心得
Ta的回复 :一条重要的收获是,即使入门课也不是只刷一遍就没必要再刷了。课程迭代的越来越好,适合复习。
26
7天打卡课心得
Ta的回复 :共同努力
26
切换版块
智能客服