内容简介:本文介绍一篇比较小众但非常有意思的手绘草图识别的新文章
点击 我爱计算机视觉 标星,更快获取CVML新技术
本文介绍一篇比较小众但非常有意思的手绘草图识别的新文章 《 Multi-Graph Transformer for Free-Hand Sketch Recognition 》,其实质是提出了一种新颖的 Transformer 网络。
该文作者信息:
作者均来自南洋理工大学。
Ⅰ 研究动机
通常,Transformer 的输入是序列化输入形式,若给定一个句子作为输入,Transformer 允许句子 中的全部词之间建立相互关联的 attention 关系。所以,本质上讲,Transformer 把输入的每个句子看作一个全连接的图(fully-connected graph),Transformer 也算是一种特殊的图神经网络 (GNN)。然而, 如何能为 Transformer 注入先验知识去引导它更精细化地学习图上的结构模式,是一个值得思考的问 题。 该文提出以手绘草图作为一种 GNN 的实验床,探索新颖的 Transformer 网络。
手绘草图(free-hand sketch)是一种特殊数据,本质上是一种动态的序列化的数据形式。因为,手绘的过程本身就是一个“连点成线”的过程(如下图 1(b) 所示)。
图 1: 手绘草图的离散化理解示意图
已有的手绘草图研究工作均在欧氏空间中对手绘草图进行建模,手绘草图被理解为静态图片输入 到 CNN 中,或者被理解为笔画的关键点的坐标序列输入到 RNN 中。
然而,在实时性要求较高的人机交互场景中,存储和传输图片会引起较大的开销,存储和传输笔画的关键点的坐标是更好的选择。文本的主要动机就是将手绘草图表示为稀疏图,将笔画的关键点理解为结点(node),且在几何空间中使用 Transformer 对其进行建模,从更具普适性的角度去理解并表示手绘草图。
通过实验,该文发现且证实了,原版的 Transformer(Vanilla Transformer)并不能对手绘草图进行合理地表示。所以,该文提出了一种新颖的 图神经网络 ,即 Multi-Graph Transformer(MGT) 网络结构,将每一张手绘草图表示为多个图结构(multiple graph structure),并且这些图结构中融入了手绘草图的领域知识(domain knowledge)(如上图 1(b) 和 1(c) 所示)。
该文所提出的 Multi-Graph Transformer 网络也可以用于其他结构化且序列化的数据建模当中。
Ⅱ Multi-Graph Transformer (MGT)
该文所提出的网络结构可分为三个部分:
(1)网络的输入层;
(2)网络的主干,即多层的Multi-Graph Transformer 结构;
(3)网络的输出层,即分类器。
2.1 Multi-Modal Input Layer
该文采用 Google QuickDraw 数据,对每一张手绘草图都取前 100 个笔画关键点,对多于 100 个关键点或者少于 100 个关键点的手绘草图进行截断(truncation)或者补零(padding)操作。每个结点被表示为 4 维的向量,前两位是该结点在画布上的横纵坐标,第三位是用于描述画笔状态的标志位,第四位是位置编码。横纵坐标通过线性层进行升维,标志位和位置编码通过 embedding layer 进行升维, 它们升维之后拼接(concatenate)起来构成 MGT 的输入。
图 2: Multi-Graph Transformer 网络结构图
2.2 Multi-Graph Transformer
如 图 2 所示,整体上看,该文所提出的 Multi-Graph Transformer(MGT)是一个 L 层的结构,每层由两个子层构成,分别是 Multi-Graph Multi-Head Attention(MGMHA)sub-layer 和 position-wise fully connected Feed-Forward (FF)sub-layer 。
该文所提出的 MGMHA 子层是一个多路并行结构,每一路都是一个基于图结构的 Multi-Head Attention 模块。这里的“图”结构是由该文基于手绘草图的领域知识所定义的图结构,也就是在原文中所定义的多种邻接矩阵。使用这些邻接矩阵来描述每张手绘草图上结点间的连通性。
进而,在 Multi-Head Attention 操作中,使用邻接矩阵所描述的连通性来控制注意力分数矩阵中的连通性,允许或者屏蔽掉特定结点间的注意力关系。
FF 子层主要进行残差连接和 BN 等操作,这里不做赘述。
2.3 Sketch Embedding and Classification Layer
给定一张草图,经过 MGT 后,其每个结点都会被表示为一个向量,将这些结点的表示向量加起来作为该张草图的向量表示。加和过程中,不考虑数据预处理过程中 padding 操作所引入的额外结点。网络尾端的分类器由多层感知器来实现,使用 softmax 交叉熵损失函数。
Ⅲ 实验
文中提供了 MGT 与众多经典的 RNN 结构和 CNN 网络的性能比较,同时也提供了详细的消融实验结果及可视化结果。尽管数据预处理环节的截断操作决定了 CNN 是 MGT 的性能上界,但是 MGT 所取得的识别准确率不仅远高于基于 LSTM 和 GRU 的网络,而且还超越了众多经典 CNN 网络,仅低于 Incetpion V3 和 MobileNet V2,但差距很微小。
表 1: Test set performance of MGT vs. the state-of-the-art RNN and CNN architectures. The 1 st/2 nd/3 rd best results per column are indicated in red/blue/magenta .
下图给出了可视化的分析,将一张闹钟的草图输入到训练好的 MGT 中,其经过每一层后得到相应的注意力权重(attention heads),这里选取了其中一些有代表性的 heads。可以看到初始层的 heads 中,结点会更多地关注局部,消息传递是沿着笔画展开的,高层的 heads 中,局部的注意力在逐渐淡 化,模型正在从全局地角度对图上的关系进行聚合。
同时,基于全局图结构先验知识所学到的 attention heads 对跨笔画的消息传递也很重要,例如可以捕获闹钟的 body 和 feet 间的关系。
图 3: 注意力权重可视化
Ⅳ 结论
该文提出了一种新颖的图神经网络,即 Multi-Graph Transformer (MGT),同时也为手绘草图提出了一种新颖的表示方法,即把每一张手绘草图表示为多张稀疏连接的图。文本所提出的 MGT 网络的主要特性包括:
(1)可以同时对手绘草图中的几何结构信息和笔画时序信息进行建模;
(2)通过预 定义的多种图结构为 Transformer 结构注入了领域知识;
(3)充分利用了手绘草图的全局和局部图结 构,即笔画内的、笔画之间的多重图结构。
希望文本可以帮助手绘草图领域的学者们从图的角度对手绘数据在更具普适性的几何空间中进行建模,同时帮助图神经网络领域的学者们把手绘数据作为一种新型的实验数据床。
论文链接:
https://arxiv.org/pdf/1912.11258.pdf
代码链接:
https://github.com/PengBoXiangShang/multigraph_transformer
手绘草图识别交流群
为给国内从事手绘草图草图识别相关研究或者感兴趣的同学提供一个更加专业的交流平台,CV君邀请了该文作者建立了一个交流群,欢迎扫码添加CV君拉你入群,(如已为CV君其他账号好友请直接私信)
( 请务必注明: 手绘草图 )
喜欢在QQ交流的童鞋,可以加52CV官方 QQ群 : 805388940 。
(不会时时在线,如果没能及时通过验证还请见谅)
长按关注 我爱计算机视觉
以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网
猜你喜欢:- 手绘用户界面草图转换为HTML 代码-Sketch2Code
- Gmail 即将迎来重大更新,UI 草图曝光
- sketch-code让草图秒变HTML
- 画图倒不如手绘
- 黑白草图就能生成2K视频?NVIDIA超狂AI模型了解一下
- 值得拥有的手绘风格画图工具
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
大思维:集体智慧如何改变我们的世界
杰夫·摩根 / 郭莉玲、尹玮琦、徐强 / 中信出版集团股份有限公司 / 2018-8-1 / CNY 65.00
智能时代,我们如何与机器互联,利用技术来让我们变得更聪明?为什么智能技术不会自动导致智能结果呢?线上线下群体如何协作?社会、政府或管理系统如何解决复杂的问题?本书从哲学、计算机科学和生物学等领域收集见解,揭示了如何引导组织和社会充分利用人脑和数字技术进行大规模思考,从而提高整个集体的智力水平,以解决我们时代的巨大挑战。是英国社会创新之父的洞见之作,解析企业、群体、社会如何明智决策、协作进化。一起来看看 《大思维:集体智慧如何改变我们的世界》 这本书的介绍吧!