AlexNet论文阅读

栏目: 数据库 · 发布时间: 6年前

论文下载

这篇论文的背景作者在参加2010年的ImageNet比赛,当时作者取得了第二名的成绩

AlexNet论文阅读 摘要主要介绍了其神经网络的结构—— 5个卷积层 (每个卷积层($convolutional\ layers$)后面都跟有池化层($max-pooling\ layers$))和 三个全连接层 ,最后是一个1000维的softmax。然后作者还提到一个比较有意思的想法: "为了避免全连接层的过拟合,我们采用一种名为$dropout$的正则化方法"

引言和数据集的部分都不重要,这里就略过了

AlexNet论文阅读 第三部分开始简略介绍了AlexNet的 架构 ,其实就和摘要说的是一样,然后作者说他会把他网络中新奇的点接下来按照重要程度(重->轻)依次说明

AlexNet论文阅读 首先作者认为他网络最重要的部分是激励函数的选取。传统的激励函数是$tanh(x)$,他认为$tanh(x)$模型收敛太慢,所以改用收敛更快的 $Relu$函数 ,右边的图中虚线是$tanh(x)$函数,实线是$Relu$函数。使用$Relu$的四层神经网络比$tanh$在达到25%的误差时快6倍

AlexNet论文阅读 接着作者认为他们 多CPU并行计算 很重要,这一块主要是硬件,我个人感觉不是很重要,所以略过

AlexNet论文阅读 局部响应归一化 。" Relu不需要将输入层的数据进行归一化防止其饱和 "(这里我暂时不是很懂,先放一放)

AlexNet论文阅读 重叠池化 。传统池化的窗口大小$z*z$中的$z$等于池化的步长$s$。作者设置$z

AlexNet论文阅读 AlexNet论文阅读 整体架构 。文章中GPU部分我就直接略过了,直接看这个图很好理解。

第1卷积层使用96个核对224 × 224 × 3的输入图像进行卷积,核的大小是11 × 11 × 3,步长是4

第2卷积层使用用第1卷积层的输出(响应归一化和池化)作为输入

未完待续...


以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

天涯虚拟社区

天涯虚拟社区

刘华芹 / 民族出版社 / 2005-11 / 23.00元

网络空间很复杂,好多人并不完全了解或者只是了解到一些皮毛。比如说好多人对于见网友一事总是抱着浪漫或者暖昧的想法,而事实却并不总是想象的那样。作者在做虚拟社区研究甚至是在有这个想法之前并不常呆在网上,互联网对于作者来说就是查查资料、收发信年、看看新闻的工具。担是看着越来越多的人把时间花在网上,一处文化上的直觉告诉作者:有一种新的生活方式产生了。强烈的好奇心驱使着作者走到了网上,走到了天涯虚拟社区,并......一起来看看 《天涯虚拟社区》 这本书的介绍吧!

HTML 压缩/解压工具
HTML 压缩/解压工具

在线压缩/解压 HTML 代码

HTML 编码/解码
HTML 编码/解码

HTML 编码/解码

RGB CMYK 转换工具
RGB CMYK 转换工具

RGB CMYK 互转工具