首页 版块 访问AI主站 注册 发帖
Seasoulj
76
积分 积分商城
4
获赞
【百度技术学院机器学习训练营第二期】-实验作业
Ta的回复 :01班+叶思风吟 猫狗分类实验初始的网络结构为: 卷积池化层1:卷积核大小为5,通道数为20,池化层大小为2,步幅为2,激活函数为Relu  (图像原先大小为3*32*32,输出图像大小变为:20*14*14) BN层 卷积池化层2:卷积核大小为5,通道数为50,池化层大小为2,步幅为2,激活函数为Relu(输入图像大小为20*14*14,输出图像大小变为:50*5*5) BN层 卷积池化层3:卷积核大小为5,通道数为50,池化层大小为2,步幅为2,激活函数为Relu(输入图像大小为50*5*5,输出图像大小变为:50*1*1) 全连接层:包含10个神经元,激活函数为Softmax 其它参数为: 学习率:0.001  损失函数:交叉熵 优化算法:Adam 训练轮数:20 训练集批量:128 最终在最后一轮测试集上得到的结果为:Cost:1.62261, ACC:0.65744 调整网络结构,对原先网络结构进行加深: 卷积池化层1:卷积核大小为2,通道数为20,池化层大小为2,步幅为2,激活函数为Relu BN层 卷积池化层2:卷积核大小为2,通道数为50,池化层大小为2,步幅为2,激活函数为Relu BN层 卷积池化层3:卷积核大小为2,通道数为50,池化层大小为2,步幅为2,激活函数为Relu BN层 卷积池化层4:卷积核大小为2,通道数为50,池化层大小为2,步幅为2,激活函数为Relu 全连接层:包含10个神经元,激活函数为Softmax 并对原先的参数不予修改,最终在最后一轮测试集上得到的结果为:Cost:1.00559, ACC:0.67791 可以发现加深网络后,准确率略有提升。 去掉上面网络中的三个BN层后得到的结果为:Cost:0.95633, ACC:0.67326,似乎去掉BN层并没有产生太大影响? 若将优化算法由Adam调整为SGD而其他参数不变,得到的结果为:Cost:1.55199, ACC:0.42959,可以发现此数据集下训练相同的轮数,Adam算法得到的模型性能要好于SGD 若将训练轮数从原本的20调高到30,发现模型在第30轮时的预测表现反而不佳,似乎已经出现了过拟合现象。 最后随手找了几张图测了下模型,感觉准确率还可以接受的样子(测了三张图,对了两张) 预测错的这张图长这样: [图片] 还有两张没通过百度的图像审核。以上还请各位大佬指正。
65
切换版块
智能客服