愚蠢的CNN,换个马甲就认不出猫!但,这病能治 | ICLR Oral

栏目: 数据库 · 发布时间: 5年前

内容简介:“穿件马甲就不认识我了?”如果把大象的纹理披在猫身上,CNN识别出的就是大象 (详见下文) 。

鱼羊 栗子 发自 凹非寺

量子位 报道 | 公众号 QbitAI

愚蠢的CNN,换个马甲就认不出猫!但,这病能治 | ICLR Oral

“穿件马甲就不认识我了?”

如果把大象的纹理披在猫身上,CNN识别出的就是大象 (详见下文) 。

图宾根大学的博士僧发现,ImageNet训练出来的CNN做图像分类时,强烈依赖纹理/质地,居然不怎么看形状。

所以给图像做个风格迁移,轻轻松松就能蒙骗AI。

这么好骗的AI必须治,团队制造了一个 升级版ImageNet ,不让纹理再给AI任何提示,逼迫它学习形状。

调教后的AI不止更加准确,面对噪音等各种干扰的时候,还更加鲁棒了。

这项研究中选了 ICLR 2019 的Oral。

这个CNN有点蠢

这里有一只橘猫:

愚蠢的CNN,换个马甲就认不出猫!但,这病能治 | ICLR Oral

还有一块只有纹理的大象皮:

愚蠢的CNN,换个马甲就认不出猫!但,这病能治 | ICLR Oral

把大象皮给橘猫披上,橘猫就被认成了大象???

愚蠢的CNN,换个马甲就认不出猫!但,这病能治 | ICLR Oral

CNN未免太好骗了吧?

来自德国图宾根大学的团队发现,与以往的认知不同,CNN并不是通过将低级特征(例如边缘)组合成复杂的形状,以此来对物体进行分类的。

此前已有研究表明,即使全局形状完全被破坏,CNN仍然可以出色地完成对纹理化图像的识别,似乎对于ImageNet训练出来的CNN来说,局部纹理就已经给分类提供了足够多的信息。

那么问题就来了,对于CNN图像识别来说,到底是对象纹理影响大还是全局形状影响大呢?

实践才能出真知,图宾根大学的小伙伴们为此精心设计了实验。他们利用风格迁移创建了像披着象皮的猫这样纹理与形状相冲突的图片,用它们来测试CNN到底更偏向于哪一边。

用于测试对象包括用ImageNet训练过的AlexNet、VGG-16、GoogLeNet、强大的ResNet-50,以及97名人类选手。

愚蠢的CNN,换个马甲就认不出猫!但,这病能治 | ICLR Oral

:arrow_down::arrow_down::arrow_down:

橘猫,识别成功。灰掉的橘猫,也能识别。涂黑了的橘猫,emmm,有点懵比。素描风格的橘猫,呃,更加尴尬。

纹理越不明,AI越懵比。纹理 VS 形状,CNN对纹理的依赖竟然占了绝对上风。

愚蠢的CNN,换个马甲就认不出猫!但,这病能治 | ICLR Oral

别急,能治的

团队发现,CNN对局部纹理有超强的bias,而不重视全局形状。

那么,就要用强硬的方法,把bias掰到形状那一边去。

研究人员用ImageNet做基础,造起一个风格化的数据集,叫做Stylized-ImageNet,简称 SIN

愚蠢的CNN,换个马甲就认不出猫!但,这病能治 | ICLR Oral

把每一张图的原始纹理除掉,然后用一种随机选择的绘画风格代替。

目的就是让AI在没有纹理线索的情况下,也能准确判断物体的类别。

这里用的是AdaIN风格迁移方法,风格化系数为α=1.0。

风格的来源,则是Kaggle的 Painter by Numbers 数据集。

新数据集的搭建过程,已经开源了,请见文底传送门。

疗效显著

在SIN数据集上,纹理已经风格化,没有太多能帮助分类的有效信息了。

用SIN训练并用SIN测试的结果是,top-5准确率只有 79%

同样的网络,在普通ImageNet上训练并用ImageNet测试,top-5准确率有 92.9%

这说明,SIN比ImageNet的任务要难许多,少了判断依据,多了干扰信息。

愚蠢的CNN,换个马甲就认不出猫!但,这病能治 | ICLR Oral

有趣的是,ImageNet的特征在SIN上的泛化能力很差:用前者训练,后者测试,top-5准确率只有 16.4%

相反,在SIN上学到的特征却在ImageNet上泛化不错:不做任何微调的情况下,top-5准确率高达 82.6%

然后,还要详细证明一下,只学纹理的模型真的搞不定SIN。

研究人员想起了2018年发布的 BagNet ,就是仅靠局部纹理搞定ImageNet的那只前辈:

BagNet也是ResNet-50架构,不过最大感受野大小被限定在9×9, 17×17或33×33像素。 这样就没有办法学习任何长距离的空间关系,用来分类

有了这些限制,BagNet在ImageNet上面表现很好 ( 70% ) ,但在SIN上就不太好了 ( 10% ) 。

这明确地表示,SIN数据集可以除去局部纹理给AI带去的线索,逼迫它去学习长距离的空间信息。因为BagNet自身限制没办法学习全局,才扑街了。

愚蠢的CNN,换个马甲就认不出猫!但,这病能治 | ICLR Oral

更重要的是, 线索冲突实验 (Cue Conflict Experiment) 证明,用SIN训练的ResNet-50,强烈地偏爱形状线索:bias从ImageNet上的22%,提升到了SIN上的81%。

在许多类别的判断上,甚至和人类对形状的依赖一样强。

还有惊喜

除了学到形状特征之外,SIN还附赠许多意想不到的优势。

第一,重点学习了形状的ResNet,在top-1和top5准确率上,都胜过了原始的ResNet。

愚蠢的CNN,换个马甲就认不出猫!但,这病能治 | ICLR Oral

这表示,SIN很可能是一个数据扩增的好方法。

第二,团队还用Faster R-CNN模型,测试了新老ResNet作为Backbone的表现。

把SIN揉进训练数据,大大提升了目标检测准确率:从70.7到75.1。这也和目标检测基于形状表征的天性有关。

第三,研究人员系统测试了,当给图像加入一些干扰:比如均匀噪音或相位噪音、对比度改变、高通与低通滤波等等,准确度会发生怎样的变化。

虽然损失了几个百分点的准确率,用SIN训练的神经网络还是在绝大多数任务上,战胜了用IN训练的结果。

愚蠢的CNN,换个马甲就认不出猫!但,这病能治 | ICLR Oral

传送门

论文: https://arxiv.org/abs/1811.12231

Github: https://github.com/rgeirhos/texture-vs-shape

SIN数据集: https://github.com/rgeirhos/Stylized-ImageNet

AI社群 | 与优秀的人交流

愚蠢的CNN,换个马甲就认不出猫!但,这病能治 | ICLR Oral

小程序 | 全类别AI学习教程

愚蠢的CNN,换个马甲就认不出猫!但,这病能治 | ICLR Oral

愚蠢的CNN,换个马甲就认不出猫!但,这病能治 | ICLR Oral

量子位  QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技术和产品新动态

喜欢就点「在看」吧 !


以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

Vim实用技巧

Vim实用技巧

[英] Drew Neil / 杨源、车文隆 / 人民邮电出版社 / 2014-5-1 / 59.00元

vim是一款功能丰富而强大的文本编辑器,其代码补全、编译及错误跳转等方便编程的功能特别丰富,在程序员中得到非常广泛的使用。vim能够大大提高程序员的工作效率。对于vim高手来说,vim能以与思考同步的速度编辑文本。同时,学习和熟练使用vim又有一定的难度。 《vim实用技巧》为那些想要提升自己的程序员编写,阅读本书是熟练地掌握高超的vim技巧的必由之路。全书共21章,包括121个技巧。每一章......一起来看看 《Vim实用技巧》 这本书的介绍吧!

JS 压缩/解压工具
JS 压缩/解压工具

在线压缩/解压 JS 代码

图片转BASE64编码
图片转BASE64编码

在线图片转Base64编码工具

SHA 加密
SHA 加密

SHA 加密工具