[译] 必读的计算机视觉开创性论文

栏目: 数据库 · 发布时间: 5年前

摘要:  学习计算机视觉必须要看的几篇论文!

[译] 必读的计算机视觉开创性论文

从ILSVRC中可以看出,近几年图像分类神经网络架构的错误率以惊人的幅度下降

深度学习已经存在了几十年, Yann Lecun 在1998年就发表了 一篇关于卷积神经网络( CNN )的论文 。但是直到十年前,深度学习才开始真正的发展并慢慢成为人工智能研究的主要焦点领域。这些转变主要是因为处理能力(即 GPU)的增强、大量可用性的数据(即 Imagenet 数据集 )以及新的算法和技术。2012年, AlexNet (一种大型深度卷积神经网络),赢得了年度 ImageNet 大规模视觉识别挑战赛( ILSVRC )。

从此以后,CNN的变体开始在ILSVRC中称霸,并超过人类精确度的水平。

作为人类,我们很容易理解图像的内容。例如,在观看电影时,我们认知一个东西是矮人后,可以轻松的去识别其他的矮人。然而,对于一台机器来说,这项任务极具挑战性,因为它在这幅图中看到的是一组数字。

[译] 必读的计算机视觉开创性论文

在本篇文章中作者基于以往在深度学习方面的经验,列出了一些具有启发性的研究论文,这些论文是任何与计算机视觉相关的人必读的。

关于图像分类的开创性研究论文

AlexNet

在2012年的ILSVRC 中, Alex KrizhevskyIIya SutskeverGeoffrey Hinton 介绍了一种深度卷积神经网络-AlexNet。在这场比赛中AlexNet的以15.4%的错误率拿下榜首,并远超第二名(第二名的错误率是26.2%)。AlexNet的这一傲人成绩震撼了整个计算机视觉社区,并使深度学习和CNN得到了很大的重视。

[译] 必读的计算机视觉开创性论文

这个CNN架构模型清晰地展示了两个GPU之间的责任划定:一个GPU运行图形顶部的图层部分,另一个运行图层底部的图层部分。

这是第一个在 ImageNet 数据集上表现得非常好的模型,AlexNet奠定了深度学习的基础。它仍然是关于深度学习中引用次数最多的论文之一,被引用约7000次。

ZFNet

Matthew D Zeiler Clarifai 的创始人)和Rob Fergous夺得了2013年ILSVRC的冠军,它将错误率降至11.2%。ZFNet引入了一种新颖的可视化技术,可以深入了解中间要素图层的功能以及分类器的运行情况,而这些AlexNet都没有。

[译] 必读的计算机视觉开创性论文

ZFNet 的网络架构

ZFNet 利用被称为 解卷积网络( Deconvolutional Networks 的技术检查不同功能激活以及与输入空间关系。

VGG 网络

牛津大学的 Karen Simonyan Andrew Zisserman 创建了深度CNN,被选为2014年ISLVRC图像分类比赛中的第二名。VGG Net表明,通过将深度增加到16-19个重量层可以实现对现有技术配置的显著改进。

[译] 必读的计算机视觉开创性论文

VGG 网络的宏观架构

该架构很容易理解(比GoogleLeNet更为简单),但仍然可以表现出最佳的准确性。它的特征映射现在在转移学习和其他需要预先训练的网络的算法中被大量使用,如大多数生成式对抗网络( GAN s )。

GoogLeNet

2014 年ISLVRC的获奖者Christian Szegedy等提出了一个名为GoogLeNet的22层神经网络。这是一种初始模型,巩固了Google在计算机视觉领域的地位。GoogLeNet将错误率下降到6.7%。这种架构的主要特征在于提高了网络内部计算资源的利用率。这是通过精心设计实现的,可以在保持计算预算不变的同时增加网络的深度和宽度。GooLeNet引入了 Inception module 的概念,并不是所有的事情都是按顺序发生的,存在一些并行发生的网络部分。

[译] 必读的计算机视觉开创性论文

GoogLeNet 架构的示意图,突出显示的框是启动模块。

值得注意的是,GoogLeNet的错误率接近人类的表现。GoogLeNet是第一批将CNN图层并不总是按顺序叠加的概念化模型之一。

RESNET

微软的ResNet由Kaiming He、Xiangyu Zhang和Shaoqing Ren开发,它是一种学习框架,用于缓解比以前更深的网络训练。作者提供了全面的经验证据,表明这些残留网络更容易优化,并且可以通过增加深度提高准确性。

[译] 必读的计算机视觉开创性论文

ResNet架构中的残余块

ResNet 以一种新的152层网络架构,其错误率为3.57%,超过了人类的性能,通过一个令人难以置信的架构在分类、检测和本地化领域创造了新的记录。

Wide ResNets

Sergey Zagoruyko 和Nikos Komodakis在2016年发表了这篇论文,对ResNet模块的架构进行了详细的实验研究,在此基础上他们提出了一种新颖的架构,它可以减少整个网络的深度并增加残余网络的宽度。

[译] 必读的计算机视觉开创性论文

作者使用的各种残余块

作者将最终的网络结构命名为 宽残差网络( WRNs 。与ResNet的卷积层相比,Wide ResNet可以具有2-12倍甚至更多的特征映射。

ResNeXt

ResNeXt 在2016年的ILSCRV 中获得第二名。它是一个简单的高度模块化的图像分类网络架构。ResNeXt设计产生了一种同构的多分支体系结构,只有少数超参数可供设置。

[译] 必读的计算机视觉开创性论文

一个 ResNeXt 块(右)与一个 ResNet 块(左)

这种策略揭示了一个新的维度,作为除深度和宽度维度以外的一个重要因素,作者将其命名为“基数”。容量增加时,增加基数比变深或变宽更有效。因此,它的准确性要高于ResNets和Wide ResNets。

DenseNet

密集卷积网络由Gao Huang, Zhuang Liu,Kilian Q.Weinberger和Laurens van der Maaten在2016年开发,以 前馈方式 将每层连接到每个其他层。对于每一层,前面所有图层的特征映射都被用作输入,并且它自己的特征映射被用作所有后续图层的输入。

[译] 必读的计算机视觉开创性论文

一个 5 层密集块。每个图层都将前面的所有要素图作为输入。

DenseNet 有几个引人注目的优点,例如缓解 梯度消失问题 ,加强特征传播,鼓励特征重用以及大幅度减少参数数量。DenseNet胜过ResNets,同时需要更少的内存和计算来实现高性能。

新的构架具有前景广阔的未来潜力

CNN 的变体可能主宰图像分类体系结构设计。Attention Modules和SENets将在适当的时候变得更加重要。

SENets

2017 年ILSCRV 的获奖作品 Squeeze-and-Excutation Networks SENet 在比赛中错误率为令人难以置信的2.251%,该作品适用于挤压、激励和缩放操作。SENets并没有为特征通道的整合引入新的空间,而是开展了一项新的“特征重新校准”策略。

[译] 必读的计算机视觉开创性论文

SENet 模型的示意图:挤压,激励和缩放操作

作者模拟了功能通道之间的相互依赖关系。训练SENet可以自动获得每个功能通道的重要性,并利用这个来增强有用的功能。

Residual Attention Networks

Residual Attention Network 是一种使用注意机制的卷积神经网络,可以以端到端的训练方式与先进的前馈网络架构(state-of-art feed forward network)相结合。注意力残留学习用于训练非常深的Residual Attention Networks,这些网络可以轻松扩展到数百层。

[译] 必读的计算机视觉开创性论文

Residual Attention Network 分类插图:选择的图像显示不同的功能在参与注意网络中具有不同的对应注意掩码。天空面具减少了低级别的背景蓝色功能。气球示例蒙版突出显示高级气球底部特征

未来之路

[译] 必读的计算机视觉开创性论文

今天,1000美元购买的电脑的处理能力是人类大脑容量的1/1000。 根据摩尔定律,到2025年我们将达到人类大脑的计算能力,到2050年将达到全人类。人工智能的有效性只会随着时间的推移而加速。 由于数据和处理能力的可用性不再使研究人员退缩,我们可以假设用于图像分类的深度学习模型的准确性将在适当的时候变得更好。


以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

ME2.0

ME2.0

丹·斯柯伯尔 / 2011-11 / 36.00元

《Me2.0个人品牌崛起E时代》,本书介绍在信息技术飞速发展的今天,如何使用网络来营建个人形象,建立关系网,谋求理想的工作,完成商务交易。成功学与今天的网络通讯相结合,smart 原则与SWOT分析,视频网站、博客、社交网站、搜索引擎如何使用才能让你以直线方式走向成功等内容。一起来看看 《ME2.0》 这本书的介绍吧!

在线进制转换器
在线进制转换器

各进制数互转换器

URL 编码/解码
URL 编码/解码

URL 编码/解码