内容简介:本文将介绍基于基于文本的 GCN,使用 Pytorch 和基本的库。GCN 模型是目前很新颖的半监督学习方法。总的来说,它是将整个语料库嵌入到一个以文档或者单词为节点(有的带标签,有的不带标签)的图中,各节点之间根据它们的关系存在带有不同权重的边。然后输入带有标签的文档节点,训练GCN模型,预测没有标签的文档。本文选择圣经作为语料库,因为它是世界上最多阅读并且有着非常丰富文本结构的书籍。圣经包括66本书(创世纪、出埃及记等)以及1189个章节。本监督学习任务是训练一个语言模型能够准确分类没有标签的章节属于哪
本文将介绍基于基于文本的 GCN,使用 Pytorch 和基本的库。GCN 模型是目前很新颖的半监督学习方法。
总的来说,它是将整个语料库嵌入到一个以文档或者单词为节点(有的带标签,有的不带标签)的图中,各节点之间根据它们的关系存在带有不同权重的边。然后输入带有标签的文档节点,训练GCN模型,预测没有标签的文档。
本文选择圣经作为语料库,因为它是世界上最多阅读并且有着非常丰富文本结构的书籍。圣经包括66本书(创世纪、出埃及记等)以及1189个章节。本监督学习任务是训练一个语言模型能够准确分类没有标签的章节属于哪本书。(由于这个数据集的标签是全部已知,所以本文选择10%~20%的数据隐藏标签作为测试集。)
为了解决这个问题,语言模型首先要学会区分各种书籍(比如《创世纪》更多的是谈论亚当和夏娃,而《传道书》讲述了所罗门王的生平)。下面我们将展示文本 GCN 能够很好的捕捉这些信息。
语料库
为了能够让 GCN 捕捉章节的上下文,我们建立了表示章节和单词关系的图,如上图所示。节点由1189个章节和所有词汇组成,这些节点之间是带有权重的边。权重 Aij 定义如下:
上式中, PMI 是滑动窗口多对共现单词之间的逐点互信息。 #W 定义10个字节的长度, #W(i) 是包含单词 i 的滑动窗口数, #W(i,j) 是包含单词 i 和 j 的滑动窗口数, #W 是语料库中滑动窗口总数。TF-IDF 是一种加权技术,字词的重要性随着它在文件中出现的次数成正比增加,但同时会随着它在语料库中出现的频率成反比下降。直观地说,具有高、正的 PMI 值的词之间具有高语义相关性,相反,我们不会在具有负 PMI 的词之间建立边。总的来说,TF-IDF 加权文档和 word 之间的边,捕获文档内的上下文。PMI 加权词汇之间的边,可以跨文档捕获上下文。
相比之下,不是基于图的模型,这种跨文档的上下文信息很难作为输入特征,并且模型必须标签从头开始学习它们。由于 GCN 可以提供文档之间的关联关系,这些信息于NLP 任务明确相关,所以可以预期 GCN 的表现将会更好。
计算 TF-IDF
计算 TF-IDF 相对简单,我们知道数学公式,并且理解它的原理,只需要在1189 个文档中使用TfidfVectorizer 模块,并将结果存储在 dataframe 中。为后面创建图时文档-单词之间的权重。代码如下:
<code>### Tfidf</code> <code>vectorizer = TfidfVectorizer(input="content", max_features=None, tokenizer=dummy_fun, preprocessor=dummy_fun)</code> <code>vectorizer.fit(df_data["c"])</code><code>df_tfidf = vectorizer.transform(df_data["c"])</code> <code>df_tfidf = df_tfidf.toarray()</code> <code>vocab = vectorizer.get_feature_names()</code> <code>vocab = np.array(vocab)</code> <code>df_tfidf = pd.DataFrame(df_tfidf,columns=vocab)</code>
计算词汇间 PMI
计算词汇之间的 PMI 要更复杂一些,首先我们需要在10个单词长度的滑动窗口内找到单词 i , j 的共现,以方块矩阵的形式存储在 dataframe 中,其中行和列表示词汇表。然后使用之前的定义计算 PMI 。代码如下:
<code>### PMI between words</code> <code>window = 10 # sliding window size to calculate point-wise mutual information between words</code> <code>names = vocab</code><code>occurrences = OrderedDict((name, OrderedDict((name, 0) for name in names)) for name in names)</code> <code># Find the co-occurrences:</code><code>no_windows = 0; print("calculating co-occurences")</code><code>for l in df_data["c"]:</code><code> </code> <code>for i in range(len(l)-window):</code><code> </code> <code>no_windows += 1</code><code> </code> <code>d = l[i:(i+window)]; </code> <code>dum = []</code><code> </code> <code> for x in range(len(d)):</code><code> </code> <code>for item in d[:x] + d[(x+1):]:</code><code> </code> <code>if item not in dum:</code><code> </code> <code>occurrences[d[x]][item] += 1; dum.append(item)</code><code> </code> <code>df_occurences = pd.DataFrame(occurrences, columns=occurrences.keys())</code> <code>df_occurences = (df_occurences + df_occurences.transpose())/2 </code> <code>## symmetrize it as window size on both sides may not be same</code><code>del occurrences</code> <code>### convert to PMI</code><code>p_i = df_occurences.sum(axis=0)/no_windows</code> <code>p_ij = df_occurences/no_windows</code><code>del </code> <code>df_occurences</code><code>for col in p_ij.columns:</code><code> </code> <code>p_ij[col] = p_ij[col]/p_i[col]</code><code>for row in p_ij.index:</code><code> </code> <code>p_ij.loc[row,:] = p_ij.loc[row,:]/p_i[row]</code> <code>p_ij = p_ij + 1E-9</code><code>for col in p_ij.columns:</code><code> </code> <code> p_ij[col] = p_ij[col].apply(lambda x: math.log(x))</code>
构图
现在我们得到了所有边的权重,可以开始构图 G 了。我们使用 networkx 模块来构图。这里要提的是整个项目的繁重计算主要在于计算词汇边的权重,因为需要迭代所有可能成对的单词组合,大约有6500个单词。(我们差不多花了两天时间计算这个,代码如下)
<code>def word_word_edges(p_ij):</code><code> </code> <code> dum = []; word_word = []; counter = 0</code><code> </code> <code>cols = list(p_ij.columns); cols = [str(w) for w in cols]</code><code> </code> <code>for w1 in cols:</code><code> </code> <code>for w2 in cols:</code><code> </code> <code>if (counter % 300000) == 0:</code><code> </code> <code> print("Current Count: %d; %s %s" % (counter, w1, w2))</code><code> </code> <code>if (w1 != w2) and ((w1,w2) not in dum) and (p_ij.loc[w1,w2] > 0):</code><code> </code> <code> word_word.append((w1,w2,{"weight":p_ij.loc[w1,w2]})); dum.append((w2,w1))</code><code> </code> <code> counter += 1</code><code> </code> <code> return word_word</code><code> </code> <code> </code><code>### Build graph</code><code>G = nx.Graph()</code><code>G.add_nodes_from(df_tfidf.index) </code> <code>## document nodes</code><code>G.add_nodes_from(vocab) </code> <code>## word nodes</code><code>### build edges between document-word</code> <code> pairs</code><code>document_word = [(doc,w,{"weight":df_tfidf.loc[doc,w]}) for doc in df_tfidf.index for w in df_tfidf.columns]</code> <code>G.add_edges_from(document_word)</code> <code>### build edges between word-word </code> <code>pairs</code><code>word_word = word_word_edges(p_ij)</code><code>G.add_edges_from(word_word)</code>
图卷积神经网络
图节点没有明确的物理空间信息,不像像素点,能够明确在中心点的左边还是右边。所以,要想进行卷积,要找到最能捕获图结构的每个节点的特征表示。作者通过将每个节点的卷积核权重 W 和特征空间 X 投影到图的傅立叶空间中来解决这个问题,使得卷积变成具有特征的节点的逐点乘法。具体的这里不做赘述,可以参照 kipf 他们的文章。
我们将在这里使用两层 GCN ,两层 GCN 之后的复杂张量由下式给出:
这里:
这里的 A 是图 G 的邻接矩阵, D 是图 G 的度矩阵。 W0 和 W1 分别是 GCN 第一层和第二层可学习的卷积核权重,也是需要被训练学习的。 X 是输入特征矩阵,是与节点数相同的维度的对角方形矩阵,这意味着输入是图中每个节点的 one-hot 编码。最后将输出馈送到具有softmax 函数的层,用于书籍分类。
双层 GCN 的Pytorch 代码如下:
<code>class gcn(nn.Module):</code><code> </code> <code> def __init__(self, X_size, A_hat, bias=True): # X_size = num features</code><code> </code> <code> super(gcn, self).__init__()</code><code> </code> <code> self.A_hat = torch.tensor(A_hat, requires_grad=False).float()</code><code> </code> <code> self.weight = nn.parameter.Parameter(torch.FloatTensor(X_size, 330))</code><code> </code> <code> var = 2./(self.weight.size(1)+self.weight.size(0))</code><code> </code> <code> self.weight.data.normal_(0,var)</code><code> </code> <code> self.weight2 = nn.parameter.Parameter(torch.FloatTensor(330, 130))</code><code> </code> <code> var2 = 2./(self.weight2.size(1)+self.weight2.size(0))</code><code> </code> <code> self.weight2.data.normal_(0,var2)</code><code> </code> <code> if bias:</code><code> </code> <code> self.bias = nn.parameter.Parameter(torch.FloatTensor(330))</code><code> </code> <code> self.bias.data.normal_(0,var)</code><code> </code> <code> self.bias2 = nn.parameter.Parameter(torch.FloatTensor(130))</code><code> </code> <code> self.bias2.data.normal_(0,var2)</code><code> </code> <code> else:</code><code> </code> <code> self.register_parameter("bias", None)</code><code> </code> <code> self.fc1 = nn.Linear(130,66)</code><code> </code> <code> def forward(self, X): ### 2-layer GCN architecture</code><code> </code> <code> X = torch.mm(X, self.weight)</code><code> </code> <code> if self.bias is not None:</code><code> </code> <code> X = (X + self.bias)</code><code> </code> <code> X = F.relu(torch.mm(self.A_hat, X))</code><code> </code> <code> X = torch.mm(X, self.weight2)</code><code> </code> <code> if self.bias2 is not None:</code><code> </code> <code> X = (X + self.bias2)</code><code> </code> <code> X = F.relu(torch.mm(self.A_hat, X))</code><code> </code> <code> return self.fc1(X)</code>
训练
总共的 1189 个章节,我们掩盖了111个标签(10%左右)。由于1189 个章节的标签分布很不均匀(如下图所示),所以一些分布低的类别我们不会隐藏,以确保 GCN 可以学习到 66 个类别。
结果
从上面的 loss vs epoch 图中可以看到,训练是很顺利的,损失大约在 2000 epoch的时候达到饱和。
随着训练进行,训练集准确度和测试集准确度同时增加,到 2000 epoch的时候,测试集准确度趋于饱和在 50% 左右。考虑到我们的类别有 66 个,假设模型以纯粹的机会预测,基准精度为 1.5%,相比之下 50% 已经很不错了。意思是,GCN 模型可以正确预测章节属于哪本书的时候有 50% ,即使它之前并没有见过这些章节。
GCN 可以捕捉文档内或者文档间的上下文信息,但是分类错误的章节呢?这意味着 GCN 模型失败吗?
例子:
书籍《马太福音》章节 27被模型预测为《路加》
查阅该章节的具体内容可以发现,该章节的内容和路加的部分内容很相似,都是在讲耶稣被处死的事情。
书籍《以赛亚》章节12 被模型预测为《诗篇》
同样的,《以赛亚》的 12 章节主要描述的是一些对上帝的赞美和歌颂,而这正是《诗篇》的全文主旨。
总结
GCN 在文本分类上是一个强大的模型,因为它能够捕捉文档内部和文档之间的信息。
项目地址
圣经数据集地址:
https://github.com/scrollmapper/bible_databases
图神经网络的参照:
https://arxiv.org/abs/1809.05679
项目源代码:
https://github.com/plkmo/Bible_Text_GCN
以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网
猜你喜欢:- 全面入门:图卷积网络(GCN)的谱分析
- 详解基于图卷积的半监督学习(附代码)
- 论文盘点:基于图卷积GNN的多目标跟踪算法解析
- 何时能懂你的心——图卷积神经网络(GCN)
- 何时能懂你的心:图卷积神经网络 (GCN)
- 图卷积网络到底怎么做,这是一份极简的Numpy实现
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。