内容简介:现实世界中的许多问题都可以通过图结构表述,例如基因序列关系、蛋白质结构、知识图谱和社交网络,鉴于这种广泛存在的结构特征,研究者们自然会尝试将特定结构融入学习模型中,概率图模型(PGM: probabilistic graphical model)和图神经网络(GNN: Graph Neural Networks)应该算是两个代表性的方向;其中结合深度学习的图神经网络近几年发展迅速,在CV、NLP和推荐系统的应用场景中的表现出巨大潜力。丁香园团队希望能在GNN领域中找到合适的文本知识表示学习方法,因此本文将从
引言
现实世界中的许多问题都可以通过图结构表述,例如基因序列关系、蛋白质结构、知识图谱和社交网络,鉴于这种广泛存在的结构特征,研究者们自然会尝试将特定结构融入学习模型中,概率图模型(PGM: probabilistic graphical model)和图神经网络(GNN: Graph Neural Networks)应该算是两个代表性的方向;其中结合深度学习的图神经网络近几年发展迅速,在CV、NLP和推荐系统的应用场景中的表现出巨大潜力。丁香园团队希望能在GNN领域中找到合适的文本知识表示学习方法,因此本文将从表示学习的角度出发,通过列举GNN领域一些有代表性的工作介绍图表示学习的实验思路。
Graph Embedding
传统Graph Embedding算法在表示学习任务中其实表现不俗,而且当图的规模不断增长时,训练GNN也不是一件容易的事,此外今天GNN做表示学习的基本框架与传统算法的区别并不大,因此本文首先介绍传统Graph Embedding算法,首先是图表示先驱的Deepwalk。
-
DeepWalk: Online Learning of Social Representations [1]
Deepwalk的思路非常直白,在持有结构化数据(建好的图)的条件下,基本可以看作采样+Word2vec的两段式,可以大致认为Deepwalk就是 「如何将带结构信息的数据喂给word2vec」 。我们知道word2vec的训练方式(原文采用SkipGram)是通过中心词(target)预测窗口内的词(context),所以Deepwalk的采样过程可以看作 「如何定义和获取图上节点的context」 。这里Deepwalk给出最基本的方法,就是定义任意中心节点到邻接节点的跳转概率,然后跳转一定次数作为该中心节点的context,这样就组成了word2vec接受的输入样本:(target,context)
可以认为Deepwalk确立了一种通用的Graph Embedding求解框架,即:(1) 定义中心节点的邻域及采样方法;(2) 设计(target, neighbors)的embedding模型。后续的Graph Embedding模型及很多复杂的GNN模型其实也都是改进这两个框架的具体操作,例如下面的LINE和Node2vec。
-
LINE: Large-scale Information Network Embedding [2]
在Deepwalk之后较短的时段内(2014年之后),多数工作直接延用了word2vec训练embedding向量的方式,并将重点放在如何改进中心节点邻域的采样方法上。LINE的关键改进就在于对context的设定,作者提出了一阶和二阶两种邻域关系,如下图所示
一阶相邻就是直接相连,二阶相邻则是取两个邻接节点邻居的重合部分;这样,一阶关系可以采样出(target, neighbor),二阶关系则会采样出(target, neighbors);对此,可以分别用sigmoid和softmax计算二元组的概率分布;在计算loss时,如果将两种采样方式合并计算,会得到一组embedding,也可以考虑分开计算loss,得到两组embedding weights,再用concat([first_order_embed, second_order_embed])合并。
-
node2vec: Scalable Feature Learning for Networks [3]
Node2vec也沿用了word2vec的训练方式,而在采样上比LINE更接近Deepwalk的思路。不过作者进一步思考了节点间的距离和节点本身的位置这些结构信息的意义。
我们知道图的遍历有深度优先(DFS)和广度优先(BFS)两种,采用DFS会更容易采样到较远的点,而BFS倾向于发掘周围的点。对此,作者提出了两个概念来描述这种位置结构:(1): 同质性(homophily),指紧密围绕从而形成一个社群(community)的节点,比如图上的 u 和 s_2 ; (2): 结构性(structural equivalence),只虽然距离较远因而不能构成同一个社群,但彼此社群中都处于类似的位置,比如图上的 u 和 s_6 (注意,作者表示 DFS更侧重同质性,BFS倾向于结构性 ,和大家的理解一致么)
基于这两种结构性质,作者扩展了Deepwalk的采样方法,设定了两个概率参数 p 和 q ,分别是回退参数(p: return parameter)和进出参数(q: in-out parameter),如上图所示,当前节点从 t 到 v ,如果 p 降低,则退回到 t 的概率就越大,q 降低则驱使算法走向新节点;控制这两个参数就可以改变context的采样结果,影响最终emebdding结果 。
还有诸如SDNE,EGES这类工作都属于Graph Embeding方法,操作简单实用性高,在图的节点数量很大时,下面的GNN方法不太容易训练应用,传统Graph Embeding方法依然有大量戏份 。
Graph Neural Networks
GNN的正式定义大约来源于2009年的这篇文章[4],随后经历了大约6年的沉寂直到2014年,受word2vec的启发,包括前文提到的一系列Graph Embedding算法相继出现;再之后,大概2017年起,各类结合了Gated机制,CNN,Attention的GNN模型结构不断被提出;时至今日,基于GNN的研究已经深入诸多领域,新颖概念层出不穷;笔者初窥门径,以下仅选个别有代表性的工作简单介绍。
-
GCN: SEMI-SUPERVISED CLASSIFICATION WITH GRAPH CONVOLUTIONAL NETWORKS [5]
融入CNN形成的GCN框架可能是最流行的GNN之一,然而CV领域大放异彩的CNN并不能直接用在属于非欧空间的图结构上,直观的说法是" 图结构中邻居节点的个数不固定,卷积核无法计算 ",因此需要某种转换操作, 要么固定邻居节点个数,要么将非欧空间的图转换到欧式空间 ,本节文章中的GCN就属于后者,这就引出了GCN的核心之一的 Laplacian算子 ;下面我们先解释图的空间变换。
描述 Laplacian算子 不得不提Fourier变换,我们知道Fourier变换可以将时域函数转换到频域的"线性变换",公式大概长这样:
需要关注的是 e^{-2 piixv} 这个"基向量",就是它将时域函数f(x)映射到以它为基的频域空间;那么对于GCN,关键就在于找到这个"基向量",通过"图Fourier变换"完成非欧空间到欧式空间的映射,这才引出 Laplacian算子 ;参照wiki上的中文定义[6]:拉普拉斯算子或是拉普拉斯算符(Laplace operator, Laplacian)是由欧几里得空间中的一个函数的梯度的散度给出的微分算子;先做梯度运算,再做散度运算,简单说就是二阶导数,它描述了二维空间中某种量的传播状态;最终,研究者们找到了拉普拉斯矩阵L作为 Laplacian算子 ,并用L的特征向量作为基向量执行"图Fourier变换",L就是图的度矩阵减去邻接矩阵,取L的特征向量组U为"图Fourier变换"的基向量(这里仅简单描述Laplacian算子的作用意义,有关Laplacian算子和Fourier变换的公式推导有很多精彩的文章珠玉在前,这里便不做赘述)。
Laplacian算子和图Fourier变换是GCN的基石,不过GCN的内容远不止如此,图卷积网络的框架是多篇文章不断改进的结果,这里引用的工作算是博采众长,早在2014年[7]就有研究提出了用拉普拉斯矩阵的特征分解实现卷积,但计算中包含的特征分解计算复杂度高,因此另一个让GCN应用广泛的贡献是通过 切比雪夫多项式(Chebyshev) 近似图卷积计算,引文第二段集中介绍了该近似过程,综合改进后的GCN如引文中的公式2所示,其中HW就如同CNN运算一般,前面矩阵A和D的运算就是图卷积的近似。
最后,这类对整张图做特征提取的方法被称为Transductive approaches,下面要介绍另一类Inductive approaches中有代表性的GraphSAGE。
-
GraphSAGE: Inductive Representation Learning on Large Graphs [8]
Transductive approaches都有一个问题,就是必须要对全图操作,这样一方面内存会限制图的规模,另一方面想更新图结构就不得不重新处理整张图;GraphSAGE的一个好处就是"以偏概全",不再对整张图做变换和卷积,而是 采样固定个数邻居 并基于这种target-neighbors的子图结构训练 聚合函数(AGGREGATE) ,这样一方面可以根据需求,通过控制邻居个数来增减图的规模,另一方面对于新加入的节点,完全可以用训练好的聚合函数获得embedding表示或其他下有任务结果。
其实看算法流程很容易想象整个流程,基本也符合deepwalk的两段式,值得注意的就是其中的AGGREGATE,文中对比了四种聚合函数:lstm,gcn,mean,pool(max);大家可以参照文中的对比实验选择合适自己任务的方法。此外,作者在文中也给出了针对无监督和有监督的不同loss设定,无监督继续采用类似word2vec的方式,有监督任务则替换成适合特定目标的损失即可,另外本文发表于2017年,Transformer也是同年发表,而今结合self-attention做聚合函数的工作已经非常多了,框架上基本也和GraphSAGE一致,很容易替换扩展。
总体来说,本文无论是思路,结构还是源码都比较简单,对应到工程落地,可以参考同一团队在KDD2018发表的,基于Pinterest公司推荐系统的实践工作[9];不过,我们尝试用GraphSAGE直接学习文本知识的embedding时,感觉并不十分理想,首先是当图的规模非常大时训练比较慢,收敛情况与子图采样密切相关,找采样参数需要大量实验;另外需要注意,源码中构造图结构用的是 Python 的 networkx
库,这个库是基于 dict
存储的,比较费内存;最后,我们的文本知识包含大约150w节点,1亿条边,无监督训练的结果不够理想,当然很可能是数据量不足以及还没找到合适的采样参数,不过,这种规模的图对我们来说已经很大了,用稀疏矩阵存储会更省资源,不过得用sparse的API重写整个结构,所以如果有办法可以直接对稀疏矩阵做计算得到embedding岂不省事许多,下一节的ProNE。
-
ProNE: Fast and Scalable Network Representation Learning [10]
本文大概应该归为Graph Embedding一类,因为并没有GCN和GraphSAGE这些框架中的多层网络结构,不过本文第二部分的embedding过程应用了GCN中spectual方法的思路,在GCN之后介绍也更合适。本文将图表示学习的模型分为三类,GNN归为一类,前文的Deepwalk、LINE、node2vec属于skip-gram类,ProNE则属于矩阵分解类模型。
ProNE整体可分为两部分, 第一部分对无向图结构的邻接矩阵做稀疏矩阵分解 。作者定义了如下损失函数最大化节点 r 和邻居 c 的共现频率p,同时最小化负采样邻居概率:
最小化loss的充分条件是loss对 r {i}^{T} c {j} 的偏导数为0,可得节点 r 和邻居 c 的的距离公式并构造距离矩阵
对距离矩阵 M 做tSVD(truncated Singular Value Decomposition)并取最后top-d的奇异值和对应向量作为这一部分的节点embedding表示,为了效率,作者用randomized tSVD加速运算。
第二部分利用高阶Cheeger不等式(higher-order Cheeger's inequality),上一步仅利用了每个节点的局部邻居,这里借鉴GCN中spectrum方法的思路设计了传播策略(propagation strategy),目的是获取图结构中的局部平滑(localized smoothing)信息和全局聚类(global clustering)信息,而Cheeger不等式为我们解释了图结构谱方法的特征值与局部平滑(localized smoothing)信息和全局聚类(global clustering)信息之间的关系。
首先,GCN部分的引文中其实介绍了,图Fourier变换实际上是一次图Fourier变换加一次逆变换,这个过程可以理解为:先由拉普拉斯矩阵的特征向量组 U 将 X 映射到对应向量空间,用特征值lambda_k 缩放 X ,再被逆变换处理;然后,在图分割理论(graph partition)中有一个 k-way Cheeger 常量 \rho_{G}(k) ,这个常量越小表示图的划分越好,直观的表述大概是"子图聚合程度越高,该常量对应越小,相对的划分就越好";最后我们通过高阶Cheeger不等式将拉普拉斯矩阵的特征值和这个常量联系起来
上式表明Cheeger 常量对应着特征值的上下界,更小的常量对应更小的特征值,也对应着更内聚(clustering)的子图,反之对应更大的特征值,此时图结构中的子图更为平滑(smoothing);因此,在这部分里,作者设计了一个函数 g 用于控制特征值的取值范围,此时的图Fourier变换为
最后,再参照GCN中利用切比雪夫多项式近似计算 \widetilde{L} 即可,整个过程可以看作 限制特征值范围的GCN ,注意最后为保证正交性,还需要对Embedding结果做一次SVD。
我们知道通常对于大规模图结构,Graph Embedding在效率上的价值更为明显,ProNE在效率方面比Deepwalk、LINE、node2vec都要出色,文中的时间对比表明,在5个常见的GNN数据集上(PPI、Wiki、BlogCatalog、DBLP、Youtube),ProNE比效率最好的LINE快大概9-50倍;我们用150w节点,1亿条边的稀疏矩阵做文本知识学习,默认参数(128维向量,迭代10次)耗时大概1小时以内;具体来说,我们试图识别出每个文本知识词汇中包含的特定类别词,例如下面的"口腔咽喉黏膜充血"中的"口腔、咽喉、黏膜"均为身体部位;"卵巢雄激素肿瘤"中包含的"卵巢"属于身体部位类词汇,"肿瘤"属于常见病症词的词根,按照包含词以及类别构建邻接图,应用ProNE方法,并按cosine计算相关词汇,结果看起来还不错 :
出色的efficient兼顾不错的effective,源码的Python版是用 networkx
加载图结构,这部分完全可以用 scipy.sparse
的API替换,只有一点美中不足,和GCN一样不能直接应用于有向图,所以下面为大家介绍一篇有关文本有向图Embedding的工作SynGCN。
-
Incorporating Syntactic and Semantic Information in Word Embeddings using Graph Convolutional Networks [11]
本文将GNN应用于Word Embedding任务,框架上基本采用GraphSAGE的邻居采样+编码函数聚合信息的模式,训练上也与word2vec类似,值得关注的是其融合有向图的SemGCN结构
具体而言,word2vec的context在这里由target词的知识组成,在编码过程中我们希望对有向边做特别处理,其实这里有向图就起到了一个线性组合的作用,对有向图的融合非常简单,就是构造一个有向图的邻接矩阵,对原有的特征embedding矩阵 M 做线性变换,与 M 叠加后再过下一个编码层。这种线性组合的方式很容易上手,而且至少对个别节点做微调效果立竿见影,不过大规模应用是否普遍有效还需要进一步检验,我们还没做进一步试验,这里仅作为一种思路介绍。
总结
本文仅简要列举了几项图结构表示学习发展中有代表性的工作供大家参考;GCN和GraphSAGE代表了图结构转换两种处理角度,就表示学习而言,或许是受图规模和计算资源的限制,后续工作中倾向于后者的采样方法的占比较高,但"图Fourier变换"的思路非常精彩不容忽视,而且在流形学习等领域也有诸多应用;基于子图训练聚合函数的方向上,除了尝试更有效的编码结构外,如何扩展和结合更丰富的图结构信息应该是更关键的方向,除了上文提到的有向图外,在推荐系统中已经出现了很多基于 异构信息网络(heterogeneous information network[12]) 的工作,用于结合节点和边对应的不同类别或语义;当然回归工程实践,我们不该忽略Graph Embedding类的方法,也不该将其与GNN割裂开,上文提到的ProNE中的传播策略完全可以用于其他方法的Embedding向量上,基于此类方法再训练GraphSAGE有可能更容易收敛,简单的有向图线性组合也具有指导意义。下一步我们也希望在ProNE的基础上尝试更多深层结构,并基于有向图线性组合的思路,调整图结构来贴合不同应用任务。
参考文献
[1] https://arxiv.org/abs/1403.6652
[2] https://arxiv.org/abs/1503.03578
[3] https://arxiv.org/abs/1607.00653
[4] https://persagen.com/files/misc/scarselli2009graph.pdf
[5] https://arxiv.org/abs/1609.02907
[6] https://zh.wikipedia.org/wiki/ 拉普拉斯算子
[7] https://arxiv.org/abs/1312.6203
[8] https://papers.nips.cc/paper/6703-inductive-representation-learning-on-large-graphs.pdf
[9] https://arxiv.org/pdf/1806.01973.pdf
[10] https://www.ijcai.org/Proceedings/2019/594
[11] https://www.aclweb.org/anthology/P19-1320/
[12] https://arxiv.org/pdf/1511.04854.pdf
招聘信息
丁香园大数据NLP团队招聘各类算法人才,Base杭州。NLP团队的使命是利用NLP(自然语言处理)、Knowledge Graph(知识图谱)、Deep Learning(深度学习)等技术,处理丁香园海量医学文本数据,打通电商、在线问诊、健康知识、社区讨论等各个场景数据,构建医学知识图谱,搭建通用NLP服务。团队关注NLP前沿技术,也注重落地实现,包括但不仅限于知识图谱、短文本理解、语义搜索、可解释推荐、智能问答等。加入我们,让健康更多,让生活更好!
欢迎各位朋友推荐或自荐至 yangbt@dxy.cn
推荐阅读
From Word Embeddings To Document Distances 阅读笔记
模型压缩实践系列之——bert-of-theseus,一个非常亲民的bert压缩方法
可解释性论文阅读笔记1-Tree Regularization
关于AINLP
AINLP 是一个有趣有AI的自然语言处理社区,专注于 AI、NLP、机器学习、深度学习、推荐算法等相关技术的分享,主题包括文本摘要、智能问答、聊天机器人、机器翻译、自动生成、知识图谱、预训练模型、推荐系统、计算广告、招聘信息、求职经验分享等,欢迎关注!加技术交流群请添加AINLPer(id:ainlper),备注工作/研究方向+加群目的。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网
猜你喜欢:本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
ANTLR 4权威指南
Terence Parr / 张博 / 机械工业出版社 / 2017-5-1 / 69元
ANTLR是一款强大的语法分析器生成工具,可用于读取、处理、执行和翻译结构化的文本或二进制文件。它被广泛应用于学术领域和工业生产实践,是众多语言、工具和框架的基石。Twitter搜索使用ANTLR进行语法分析,每天处理超过20亿次查询;Hadoop生态系统中的Hive、Pig、数据仓库和分析系统所使用的语言都用到了ANTLR;Lex Machina将ANTLR用于分析法律文本;Oracle公司在S......一起来看看 《ANTLR 4权威指南》 这本书的介绍吧!