首页 AI 创造营 帖子详情
AlexNet论文学习笔记
收藏
快速回复
AI 创造营 文章学习资料 1936 5
AlexNet论文学习笔记
收藏
快速回复
AI 创造营 文章学习资料 1936 5

AlexNet包含5个卷积层,三个卷积层后面链接最大池化层,最后还有三个全连接层。

(1)成功使用RELU激活函数,成功解决sigmoid在网络较深时梯度弥散的问题。

(2)训练中使用dropout随机忽略部分神经元避免过拟合。

(3)在AlexNet中全部使用最大池化,避免平均池化的模糊效果,AlexNet提出步长比池化核小,这样池化层的输出之间会有重叠和覆盖,提升特征的丰富性。

(4)提出LRN层,对局部神经元的活动创建竞争机制,使得其中相应比较大的值变得相对更大,并且抑制其他反馈比较小的神经元,增加了模型的泛化能力。

(5)数据增强,随机的从原始图像中截取小块区域做数据增强,仅仅靠原始数据是不能泛化的,会产生过拟合的现象,取图片四个角加上中间5张图,加上翻转一共10张图片,,对他们进行预测并且对10次结果取均值。同时对RGB图像做PCA处理,并且对主成分做一个标准差为0.1的高斯扰动,这个操作可以降低1%的错误率。

整个AlexNet有8个需要训练的层(不包括池化层和LRN层),前5层为卷积层,后三层是全连接层,最后一层有1000类输出的softmax层做分类。LRN在一二卷积层后面,最大池化层是在LRN和最后一层卷积层的后面。RELU则是在每一层的后面。

​ ​​

输入图片的大小是224x224,第一个卷积层使用的11x11 卷积核,步长为4,有98个卷积核,紧接着一个LRN层,然后就是3x3的最大池化层,步长为2。这之后的卷积核尺寸都比较小,都是5x5或者3x3大小的,并且步长都是1,会扫描所有像素;而最大池化层依然保持为3x3,并且步长为2。我们发现前几层计算量很大但是参数很小。注意要是去掉中间任何的一层都会让网络的精度下降很多。

 

0
收藏
回复
全部评论(5)
时间顺序
busyboxs
#2 回复于2018-12

补个slides的链接:http://image-net.org/challenges/LSVRC/2012/supervision.pdf

network图链接:http://ethereon.github.io/netscope/#/preset/alexnet

还有一张图:

0
回复
qqqw151
#4 回复于2018-12
该评论已删除

哈哈哈,有兴趣呀

0
回复
A
AIStudio782817
#5 回复于2018-12

这个可以

0
回复
qqqw151
#6 回复于2018-12
这个可以

大佬一起研究强化学习啊

0
回复
A
AIStudio782820
#7 回复于2019-01

感谢分享

0
回复
在@后输入用户全名并按空格结束,可艾特全站任一用户