百度深度学习集训营已经正式开营,每个阶段的作业都将有各自的奖励,欢迎大家学习~
PS:如遇帖子过期、审核不通过的情况,请先复制内容保存在word文档,然后根据提示,完成个人实名验证,刷新后重新粘贴复制的内容,即可提交~
欢迎大家报名参加~
1月9日作业:
作业9-1:在第二章中学习过如何设置学习率衰减,这里建议使用分段衰减的方式,衰减系数为0.1, 根据ResNet目前的训练情况,应该在训练到多少步的时候设置衰减合适?请设置好学习率衰减方式,在眼疾识别数据集iChallenge-PM上重新训练ResNet模型。
作业9-1奖励:在作业中随机各抽取5名同学送出飞桨本+数据线+飞桨贴纸
回复帖子形式: 作业9-1:XXX
抽奖作业截止时间:2020年1月13日中午12点之前
作业9-2奖励:在作业中随机各抽取5名同学送出飞桨本+数据线+飞桨贴纸
回复帖子形式: 作业9-2:XXX
抽奖作业截止时间:2020年1月13日中午12点之前
1月7日作业:
作业8:如果将LeNet模型中的中间层的激活函数Sigmoid换成ReLU,在眼底筛查数据集上将会得到什么样的结果?Loss是否能收敛,ReLU和Sigmoid之间的区别是引起结果不同的原因吗?请发表你的观点
作业8奖励:在作业中随机各抽取5名同学送出飞桨本+数据线+飞桨贴纸
回复帖子形式: 作业8:XXX
获奖同学:#820 thunder95、#819 你还说不想我吗、 #818 百度用户#0762194095、#817 呵赫 he、#816 星光1dl
1月2日作业
作业7-1 计算卷积中一共有多少次乘法和加法操作
输入数据形状是[10, 3, 224, 224],卷积核kh = kw = 3,输出通道数为64,步幅stride=1,填充ph = pw =1
完成这样一个卷积,一共需要做多少次乘法和加法操作?
提示:先看输出一个像素点需要做多少次乘法和加法操作,然后再计算总共需要的操作次数
提交方式:请回复乘法和加法操作的次数,例如:乘法1000,加法1000
作业7-1奖励:抽取5人赢得飞桨定制本+数据线,截止时间2020年1月6日中午12点之前
回复帖子形式: 作业7-1:XXX
作业7-2奖励:从正确答案中抽取5人获得飞桨定制本+50元京东卡,截止时间2020年1月6日中午12点之前
12月31日作业
作业6-1:
1.将普通神经网络模型的每层输出打印,观察内容
2.将分类准确率的指标 用PLT库画图表示
3.通过分类准确率,判断以采用不同损失函数训练模型的效果优劣
4.作图比较:随着训练进行,模型在训练集和测试集上的Loss曲线
5.调节正则化权重,观察4的作图曲线的变化,并分析原因
作业6-1奖励:抽取5人赢得飞桨定制本+数据线 ,回复帖子形式: 作业6-1:XXX
作业6-2:
正确运行AI Studio《百度架构师手把手教深度学习》课程里面的作业3 的极简版代码,分析训练过程中可能出现的问题或值得优化的地方,通过以下几点优化:
(1)样本:数据增强的方法
(2)假设:改进网络模型
(2)损失:尝试各种Loss
(2)优化:尝试各种优化器和学习率
目标:尽可能使模型在mnist测试集上的分类准确率最高
提交实现最高分类准确率的代码和模型,我们筛选最优结果前10名进行评奖
作业6-2奖励:飞桨定制本+50元京东卡
12月25日作业
12月23日作业
作业4-1:在AI studio上运行作业2,用深度学习完成房价预测模型
作业4-1奖励:飞桨定制本+ 《深度学习导论与应用实践》教材,选取第2、3、23、123、223、323…名同学送出奖品
作业4-2:回复下面问题,将答案回复帖子下方:
通过Python、深度学习框架,不同方法写房价预测,Python编写的模型 和 基于飞桨编写的模型在哪些方面存在异同?例如程序结构,编写难易度,模型的预测效果,训练的耗时等等?
回复帖子形式: 作业4-2:XXX
作业4-2奖励:在12月27日(本周五)中午12点前提交的作业中,我们选出最优前五名,送出百度定制数据线+《深度学习导论与应用实践》教材
12月17日作业
完成下面两个问题,并将答案回复在帖子下面,回帖形式:作业3-1(1)XX(2)XX
作业奖励:在2019年12月20日中午12点之前提交,随机抽取5名同学进行点评,礼品是本+数据线
12月12日作业
获奖者:第12名:飞天雄者
12月10日作业
作业1-1:在AI Studio平台上https://aistudio.baidu.com/aistudio/education/group/info/888 跑通房价预测案例
作业1-1奖励:最先完成作业的前3名,以及第6名、66名、166名、266名、366名、466名、566名、666名的同学均可获得飞桨定制大礼包:飞桨帽子、飞桨数据线 、飞桨定制logo笔
作业1-1的获奖者如图:
作业1-2:完成下面两个问题,并将答案发布在帖子下面
①类比牛顿第二定律的案例,在你的工作和生活中还有哪些问题可以用监督学习的框架来解决?假设和参数是什么?优化目标是什么?
②为什么说AI工程师有发展前景?怎样从经济学(市场供需)的角度做出解读?
作业1-2奖励:回复帖子且点赞top5,获得《深度学习导论与应用实践》教材+飞桨定制本
点赞Top5获奖者:1.飞天雄者 2.God_s_apple 3.177*******62 4.学痞龙 5.故乡237、qq526557820
作业截止时间2020年1月10日,再此之前完成,才有资格参加最终Mac大奖评选
报名流程:
1.加入QQ群:726887660,班主任会在QQ群里进行学习资料、答疑、奖品等活动
2.点此链接,加入课程报名并实践:https://aistudio.baidu.com/aistudio/course/introduce/888
温馨提示:课程的录播会在3个工作日内上传到AI studio《百度架构师手把手教深度学习》课程上
作业7-1:
卷积核输出的宽高很容易得到
宽=高 = (224+1*2-3)/1 +1 = 224
卷积通道输出3*64
单通道卷积 224*224
每次卷积惩罚数量3*3
总乘法数量 10*3*64*224*224*3*3 = 867041280
对于加法,这里默认我算有bais情况下的
单通道卷积的加法数 10*3*64*224*224*(3*3-1)
通道间加法数量 10*64*224*224*(2+1)
以上两个相加 总加法数 867041280
作业7-2:
作业7-2:
作业7-2
作业7-1:
卷积核输出的宽高很容易得到
宽=高 = (224+1*2-3)/1 +1 = 224
卷积通道输出3*64
单通道卷积 224*224
每次卷积惩罚数量3*3
总乘法数量 10*3*64*224*224*3*3 = 867041280
对于加法,这里默认我算有bais情况下的
单通道卷积的加法数 10*3*64*224*224*(3*3-1)
通道间加法数量 10*64*224*224*(2+1)
以上两个相加 总加法数 867041280
https://ai.baidu.com/forum/topic/show/957033
作业7-2
作业7-2
作业6-1:
1、普通全连接神经网络模型的每层输出打印内容如下所示:
2、使用交叉熵损失函数,训练集、测试集的分类准确率如下图所示:
3、使用均方差损失函数,训练集、测试集的分类准确率如下图所示。可见分类问题中交叉熵损失函数要比均方差损失函数更有效。
4、训练集、测试机上Loss曲线如下图所示。可见随着训练的进行训练集的loss是不断小幅震荡的,而测试集的loss是不断减小的。
5、无正则化、0.01正则化、0.1正则化权重,三种情况的曲线图如下所示。由于加入正则化,损失函数要比无正则化模型的大。但是不知为啥加入正则化,模型的准确率并不高。可能是训练迭代次数不够,未体现出正则化的效果。
作业7-2:
作业7-2:
作业6-1:
1、
2、分类准确率指标图
3、平方差分类准确率指标图如下,对比2的指标图,可以发现平方差作为损失函数效果很差
4、从下图可以看出,4000次迭代后验证集和测试集的损失开始升高
5、加了正则项后,好了很多,验证集和测试集的损失没有明显升高了。因为模型变简单了
作业7-1与7-2:
作业6-1:
1、
2、分类准确率指标图
3、平方差分类准确率指标图如下,对比2的指标图,可以发现平方差作为损失函数效果很差
4、从下图可以看出,4000次迭代后验证集和测试集的损失开始升高
5、加了正则项后,验证集和测试集的损失没有明显升高了。因为模型变简单了
作业7-1:乘法867041280次;加法867041280次(带bias),834928640次(无bias)。
作业7-2:
作业7-1:乘法:867041280次;加法:867041280次(带bias),834928640次(无bias)。
作业7-2:
作业7-2
7-1作业:
乘法:867,041,280(3X3X3X224X224X64X10)
加法:867,041,280(一样)
作业6-1:使用案例中的网络
1.将普通神经网络模型的每层输出打印,观察内容
########## print shape of features of every layer ###############
inputs_shape: [100, 1, 28, 28]
outputs1_shape: [100, 20, 28, 28]
outputs2_shape: [100, 20, 14, 14]
outputs3_shape: [100, 20, 14, 14]
outputs4_shape: [100, 20, 7, 7]
outputs5_shape: [100, 10]
epoch: 0, batch: 0, loss is: [2.5742316], acc is [0.97]
epoch: 0, batch: 200, loss is: [0.444937], acc is [0.91]
epoch: 0, batch: 400, loss is: [0.3874366], acc is [0.9]
########## print convolution layer's kernel ###############
conv1 params -- kernel weights: name tmp_7228, dtype: VarType.FP32 shape: [5, 5] lod: {}
dim: 5, 5
layout: NCHW
dtype: float
data: [-0.359899 0.173983 0.28901 -0.230721 0.184776 0.274603 0.383991 -0.0729532 0.352754 -0.107321 -0.0858282 0.0418072 -0.43282 -0.157115 -0.208467 0.278601 0.396803 0.0164438 -0.0312397 0.205017 -0.318895 0.168957 0.286773 -0.0887263 -0.324507]
conv2 params -- kernel weights: name tmp_7230, dtype: VarType.FP32 shape: [5, 5] lod: {}
dim: 5, 5
layout: NCHW
dtype: float
data: [-0.00478599 -0.0883478 -0.0783091 0.172174 -0.0313758 0.0786353 -0.108761 -0.0399595 0.0829188 -0.0128394 -0.0311222 0.130334 -0.091347 -0.13503 -0.0344163 0.00239077 0.0615464 -0.0190331 0.0491023 0.0212185 0.0247844 0.0158241 0.085742 -0.0673808 -0.000860732]
The 0th channel of conv1 layer: name tmp_7232, dtype: VarType.FP32 shape: [28, 28] lod: {}
dim: 28, 28
layout: NCHW
dtype: float
data: [-0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.188293 -0.382244 -0.266392 -0.0369571 0.0317387 -0.0746466 -0.223773 -0.345826 -0.32437 -0.205885 0.0165167 -0.21537 -0.423076 -0.0220078 0.199234 -0.109326 -0.206602 -0.110505 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.170778 -0.22017 -0.000534391 0.402083 0.39022 0.480837 0.461701 0.282963 0.218265 0.137099 0.174946 0.475291 0.382265 0.144889 0.341625 0.643469 0.371971 -0.116988 -0.232582 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.172735 -0.507938 -0.640122 -0.269177 -0.0546475 -0.059566 0.157391 0.109356 0.0490781 -0.000685161 -0.0734239 8.69669e-06 -0.00968546 -0.0854271 0.140439 0.434423 0.706175 0.420368 -0.0805915 -0.090574 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.130158 -0.204105 -0.608062 -0.138136 0.552509 0.541114 0.494319 0.308805 0.113339 0.278185 0.199495 0.297084 0.490136 0.268377 0.358453 0.622117 0.759697 0.610609 0.0250068 -0.0369603 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.125911 -0.00762665 -0.222317 0.213245 0.334316 0.51372 0.577322 0.653932 0.835693 0.721971 0.907786 0.855101 0.303753 0.578692 0.900525 0.782284 0.645484 0.863772 0.232513 -0.0450227 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 0.0540647 0.0237259 0.127295 0.369387 0.244472 0.222398 0.111794 0.244072 0.310437 0.310437 0.309169 0.210504 0.0722659 0.166531 0.481128 0.844709 0.934892 0.816706 0.147577 0.0185323 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 0.104085 0.0035303 0.173648 0.532079 0.35977 0.498711 0.4738 0.565915 0.595878 0.595878 0.587806 0.309948 0.191832 0.2727 0.534881 0.746009 0.947711 0.872142 0.141115 -0.00982869 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 0.00161784 0.0364622 0.0702523 0.0680842 0.220541 0.253237 0.149112 0.301095 0.310586 0.310586 0.306504 0.0471298 -0.163205 -0.0532586 0.456312 0.826204 0.929984 0.779197 0.0544378 -0.0219635 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.00848708 0.0425837 -0.0211682 0.0691588 0.11446 0.00620932 0.00620932 -0.159093 -0.361744 -0.334714 -0.352294 0.365748 0.89716 1.01 0.789341 -0.0310383 -0.0494899 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.0984341 -0.409045 -0.145982 -0.156323 0.800211 1.0962 1.04018 0.809828 -0.118347 -0.0778465 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.0387157 -0.29174 -0.407795 -0.352742 0.0539133 0.771471 0.909285 0.966744 0.693565 -0.154476 -0.0641127 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.0307711 -0.332387 -0.257523 -0.336669 0.409378 1.05861 0.943258 0.827548 0.525098 -0.0199966 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.142407 -0.332521 -0.348282 -0.268773 0.56075 0.920507 0.906655 0.747432 0.390207 -0.0788162 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.167165 -0.384671 -0.216235 -0.131423 0.76063 1.08208 0.885022 0.78984 0.2624 -0.119717 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.0374481 -0.22539 -0.394003 -0.302975 0.0770478 0.928183 1.13542 0.821717 0.700899 0.0919221 -0.192574 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.209037 -0.391508 -0.161459 -0.25254 0.213136 1.02569 0.95124 0.944278 0.381191 -0.166666 -0.0795771 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.129615 -0.383047 -0.185321 0.00714027 0.632479 1.10103 0.86514 0.916443 0.183001 -0.125903 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.244104 -0.464091 -0.474669 0.0565129 0.821197 1.07583 0.782116 0.702479 0.052841 -0.129545 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.306371 -0.285043 -0.48549 0.418469 1.12856 0.991525 0.85969 0.517093 -0.0740963 -0.0352237 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.0790656 -0.241228 -0.288045 0.600385 1.00678 0.775979 0.949253 0.351785 -0.155775 -0.0444307 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.0392127 -0.0252741 -0.258563 0.285865 0.723799 0.652702 0.763989 0.0921553 -0.167799 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.025038 -0.0537735 -0.0127475 0.408857 0.511136 0.503435 0.368862 -0.155584 -0.081243 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 0.0865212 0.0403541 0.341438 0.506993 0.45476 0.359059 -0.0280925 -0.191769 -0.0191253 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096 -0.012096]
The 19th channel of conv2 layer: name tmp_7234, dtype: VarType.FP32 shape: [14, 14] lod: {}
dim: 14, 14
layout: NCHW
dtype: float
data: [0.133524 0.261713 0.398516 0.300155 0.207205 0.177061 0.331469 0.24091 0.147265 -0.0381781 -0.0498951 0.0151675 0.0103798 0.0251954 0.0200641 0.710146 2.20451 2.45295 2.02375 2.12352 2.37096 2.53136 1.82693 0.54007 0.0421808 0.0666441 0.109936 0.0408305 -0.125101 0.348594 2.37079 2.97236 2.74191 2.67595 2.96843 3.52112 3.66114 1.58234 0.0500735 -0.116219 0.157293 0.0633746 0.170303 0.686377 1.31604 1.02073 1.34852 1.37269 1.45245 1.93801 2.98357 1.75218 -0.150924 0.104165 0.29854 0.0977117 0.231457 -0.131576 -0.800604 -2.08705 -2.48101 -1.94497 -2.31058 -0.155971 1.15054 -0.231251 -0.858473 0.187435 0.37962 0.108972 0.0635302 -0.52728 -1.66956 -3.88835 -4.58166 -4.12174 -3.77547 -1.14152 0.184765 -2.14593 -1.67511 0.312072 0.67437 0.0871434 0.412331 -0.371719 -1.89212 -3.12486 -3.89965 -4.17932 -2.83208 -0.862915 -1.62412 -3.38967 -2.69137 0.265937 0.756824 0.10977 0.361111 0.298736 -0.39061 -1.23338 -1.87758 -1.75044 -0.213152 0.857821 -2.74905 -4.32689 -2.62883 0.0707404 0.757232 0.104894 0.0671381 0.100277 0.181328 0.0387668 0.0108674 0.626581 2.5507 1.94277 -3.24094 -4.59865 -1.70099 0.242836 0.533783 0.0777746 0.0604802 0.0660988 0.0609731 0.0417512 0.0910631 1.25942 3.05473 0.849455 -4.58809 -4.51171 -1.13448 0.463588 0.408741 0.0554354 0.0604802 0.0660988 0.0609731 0.0424113 0.131701 1.43992 2.27443 -1.3518 -5.51311 -3.85575 -0.676164 0.60081 0.240901 0.0492353 0.0604802 0.0660988 0.0609731 0.0688703 0.176287 0.660231 -0.037799 -4.16742 -5.39724 -2.69388 -0.204672 0.401011 0.19528 0.0492353 0.0746833 0.0806352 0.0730386 0.113785 0.503216 0.433875 -2.13283 -5.34302 -4.21581 -1.52134 0.2703 0.399897 0.125882 0.055529 0.0799754 0.0950556 0.0896241 0.0748393 0.375515 -0.384906 -2.5022 -4.18304 -2.80491 -0.659525 0.321693 0.248487 0.0840268 0.0582633]
The output of last layer: name tmp_7235, dtype: VarType.FP32 shape: [10] lod: {}
dim: 10
layout: NCHW
dtype: float
data: [3.33258e-08 1.74588e-08 7.25673e-08 7.16149e-05 9.37607e-08 2.93527e-07 4.54408e-10 0.999863 5.68474e-07 6.44884e-05]
2.将分类准确率的指标 用PLT库画图表示,下图为交叉熵的loss和准确率曲线
作业6-1:
1.
2.
3.
4.
5.