AlexNet论文阅读

栏目: 数据库 · 发布时间: 5年前

论文下载

这篇论文的背景作者在参加2010年的ImageNet比赛,当时作者取得了第二名的成绩

AlexNet论文阅读 摘要主要介绍了其神经网络的结构—— 5个卷积层 (每个卷积层($convolutional\ layers$)后面都跟有池化层($max-pooling\ layers$))和 三个全连接层 ,最后是一个1000维的softmax。然后作者还提到一个比较有意思的想法: "为了避免全连接层的过拟合,我们采用一种名为$dropout$的正则化方法"

引言和数据集的部分都不重要,这里就略过了

AlexNet论文阅读 第三部分开始简略介绍了AlexNet的 架构 ,其实就和摘要说的是一样,然后作者说他会把他网络中新奇的点接下来按照重要程度(重->轻)依次说明

AlexNet论文阅读 首先作者认为他网络最重要的部分是激励函数的选取。传统的激励函数是$tanh(x)$,他认为$tanh(x)$模型收敛太慢,所以改用收敛更快的 $Relu$函数 ,右边的图中虚线是$tanh(x)$函数,实线是$Relu$函数。使用$Relu$的四层神经网络比$tanh$在达到25%的误差时快6倍

AlexNet论文阅读 接着作者认为他们 多CPU并行计算 很重要,这一块主要是硬件,我个人感觉不是很重要,所以略过

AlexNet论文阅读 局部响应归一化 。" Relu不需要将输入层的数据进行归一化防止其饱和 "(这里我暂时不是很懂,先放一放)

AlexNet论文阅读 重叠池化 。传统池化的窗口大小$z*z$中的$z$等于池化的步长$s$。作者设置$z

AlexNet论文阅读 AlexNet论文阅读 整体架构 。文章中GPU部分我就直接略过了,直接看这个图很好理解。

第1卷积层使用96个核对224 × 224 × 3的输入图像进行卷积,核的大小是11 × 11 × 3,步长是4

第2卷积层使用用第1卷积层的输出(响应归一化和池化)作为输入

未完待续...


以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

重来2

重来2

[美] 贾森·弗里德、[美] 戴维·海涅迈尔·汉森 / 苏西 / 中信出版社 / 2014-4-8 / 39.00元

“不再需要办公室”,这不仅仅是未来才有的事——它已经发生了。现在,轮到你迈开脚步,跟上时代的步伐了。 上百万的员工和成千上万的企业已经发现了远程工作的乐趣和好处。然而,远程工作方式还没有成为常见的选择。事实上,远程工作的技术手段都已齐备。还没有升级换代的,是人们的思想。 这本书的目的就是帮你把想法升级换代。作者会向你展示远程工作的诸多好处:可以找到最优秀的人才,从摧残灵魂的通勤路上解脱......一起来看看 《重来2》 这本书的介绍吧!

HTML 编码/解码
HTML 编码/解码

HTML 编码/解码

XML、JSON 在线转换
XML、JSON 在线转换

在线XML、JSON转换工具

XML 在线格式化
XML 在线格式化

在线 XML 格式化压缩工具