深度解读何恺明团队提出的随机连接神经网络 RandWireNN

栏目: 编程工具 · 发布时间: 6年前

中心俞一鹏博士给大家带来随机连接神经网络RandWireNN的解读。

深度学习模型炼丹师一般手工精心设计网络中不同层之间的连接方式,如CNN的convolution,RNN的recurrent,ResNets的x+F(x),以及DenseNets的[x, F(x)]等。自动化机器学习/深度学习的研究者则主要关注在巨大的网络模型空间中如何高效地搜索出较好的神经网络,如早期研究人员一般使用random search/gird search,现在演变出reinforcement learning, gradient-based, weight-sharing,以及evolutionary等方法。论文作者引入了一种网络模型空间的构造方法,即图论中的random graph,之后用grid search搜索出较好的神经网络子集,并在ImageNet的1000-class分类任务上进行验证。

论文的主要工作包含以下步骤:

(1)基于图论的随机图方法生成随机图Random Graph;

(2)将Random Graph转换为一个神经网络NN;

(3)将多个NN堆叠起来,形成最终的随机连接神经网络RandWireNN;

(4)在ImageNet 1000-class任务上验证RandWireNN的表现;

(5)重复(1)到(4)步骤。

下面对每个步骤进行详细描述。

一、基于图论的随机图方法生成随机图Random Graph

作者引入了三种随机图生成方法,即Erdos-Renyi(ER)、Barabasi-Albert(BA)和 Watts-Strogatz(WS)。这三个方法生成随机图的机制比较简单。

--ER: N个节点,节点两两之间以P的概率有一条边。该方法包含一个参数P,故以ER(P)表示。

--BA: 初始有M个节点(M

--WS: 所有N个节点排成一个圈,每个节点与两边邻近的K/2个节点相连。之后按照顺时针方向遍历每一个节点,与当前节点相连的某一条边以概率P与其他某个节点相连。重复K/2次。该方法包含2个参数K和P,故以WS(K,P)表示。

其中模型的节点总数N由论文作者根据网络复杂度(FLOPs)手动指定,因此ER方法的参数搜索空间为P∈[0.0,1.0],BA方法的参数搜索空间为M∈[1,N],WS方法的参数搜索空间为K∈[1,N-1] x P∈[0.0,1.0]。图1是三种方法生成的随机图。

深度解读何恺明团队提出的随机连接神经网络 RandWireNN

图1:随机图

二、 把生成的随机图Random Graph转换为一个神经网络NN

由图1可知,生成的每个随机图中的边是没有方向的,且不知道哪个是输入节点,哪个是输出节点。

首先要给每条边指定一个方向,即把生成的随机图Random Graph转换为有向无环图DAG。方法就是给每个节点分配一个索引index(从1到N),若两个节点之间有边,则边的方向从小索引节点到大索引节点。其中ER方法按照随机的方式给N个节点分配索引;BA方法给初始的M个节点分配索引1~M,之后每增加一个节点,其索引加1;WS方法则按照顺时针方向从小到大给N个节点分配索引。

其次给DAG指定唯一的输入节点(input)和唯一的输出节点(output)。DAG本身包含N个节点,那么额外指定一个输入节点与DAG中所有入度为0的节点相连,其负责将输入的图片转发出去;再额外指定一个输出节点与DAG中所有出度为0的节点相连,该节点进行均值计算后将结果输出。

最后规定DAG中每个节点的操作类型(如图2所示),从而形成一个神经网络NN。其中conv是一个ReLU-convolution-BN,简称conv。

深度解读何恺明团队提出的随机连接神经网络 RandWireNN

图2:节点的操作

三、 将多个NN堆叠起来,形成最终的随机连接神经网络RandWireNN

借鉴其他经典深度学习神经网络,作者将多个NN堆叠起来形成最终的随机连接神经网络RandWireNN。图3为一个示例,其包含共5个stages,其中stage1是一个卷积层,stage2可以是一个卷积层或者是一个NN,stage3、stage4和stage5均为NN。不同stage之间:卷积操作的stride为2,故feature map的大小逐渐减半;卷积操作的卷积核的数量x2,故feature map的通道数(即C)也x2。

其中每个NN的节点数N(不包含输入和输出节点)设置为32,通道数C设置为78或者109/154。不同的(N,C)对应不同的网络复杂度(FLOPs),这样可以跟不同规模(small/regular/larger)的其他经典网络进行实验比较。

深度解读何恺明团队提出的随机连接神经网络 RandWireNN

图3:RandWireNN

四、 在ImageNet 1000-class任务上验证RandWireNN的表现

(1)三个随机图生成方法(ER,BA,WS)的比较

如图4所示,WS方法的表现最好,于是接下来作者挑选了WS(4,0.75)与其他网络进行比较。论文还进行了另外一个网络结构鲁棒性测试的实验,即将网络中的某个节点或者某条边随机去掉,然后测试网络的表现,最后发现WS的结构最不稳定。这个研究点很有意思,也许将来会有一种网络生成器能够生成又好又鲁棒的网络结构,类似大脑,也许有种大脑结构最不容易得精神疾病。

深度解读何恺明团队提出的随机连接神经网络 RandWireNN

图4:三种随机图方法的表现

(2)WS(4,0.75)与其他网络的比较

首先是与小规模网络(smaller)进行比较,此时N=32,C=78。如表1所示,比MobileNet/ShuffleNet/NASNet/PNAS/DARTS等表现好,比Amoeba-C略差。

深度解读何恺明团队提出的随机连接神经网络 RandWireNN

表1:与小规模网络比较

其次与中等规模的网络(regular)进行比较,此时N=32,C=109/154,如表2所示,比ResNet-50/101和ResNeXt-50/101表现好。

深度解读何恺明团队提出的随机连接神经网络 RandWireNN

表2:与中等规模网络比较

最后与大规模网络(larger)进行比较,此时直接使用刚才训练好的中等规模网络,不过输入图像的size由224x224提高到320x320,如表3所示,虽然比其他网络表现略差,但是计算量少了很多。

深度解读何恺明团队提出的随机连接神经网络 RandWireNN

表3:与大规模网络比较

(3)迁移表现

论文将RandWireNN作为骨干网络,用Faster R-CNN with FPN来检测目标(COCO object detection),如表4所示,比ResNet-50和ResNeXt-50效果好。

深度解读何恺明团队提出的随机连接神经网络 RandWireNN

表4:迁移表现

五、 进一步思考

(1)这篇论文将图论的方法引入,并强调network generator的重要性,很有新意,好比“虎父无犬子”,“龙生龙,凤生凤”。

(2)这个idea也许你也能想到,不过快速实现这个idea的能力更重要;

(3)不同stage之间只有一个node连接,这个设计未必合理;

(4)迁移学习表现比较的实验过于简单,且其他实验结果也没有很惊艳。

(5)引入的图论方法有点简单,也许有更复杂的图生成方法,比如Bio-inspired类的;

(6)只与NASNet进行了表现比较,没有与其他AutoML方法进行对比。


以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

Web Applications (Hacking Exposed)

Web Applications (Hacking Exposed)

Joel Scambray、Mike Shema / McGraw-Hill Osborne Media / 2002-06-19 / USD 49.99

Get in-depth coverage of Web application platforms and their vulnerabilities, presented the same popular format as the international bestseller, Hacking Exposed. Covering hacking scenarios across diff......一起来看看 《Web Applications (Hacking Exposed)》 这本书的介绍吧!

CSS 压缩/解压工具
CSS 压缩/解压工具

在线压缩/解压 CSS 代码

XML、JSON 在线转换
XML、JSON 在线转换

在线XML、JSON转换工具

HEX CMYK 转换工具
HEX CMYK 转换工具

HEX CMYK 互转工具