内容简介:图分类(预测图的标签)是图结构数据里一类重要的问题。它的应用广泛,可见于生物信息学、化学信息学、社交网络分析、城市计算以及网络安全。随着近来学界对于在这个教程里,我们将一起学习:这里我们设计了一个简单的图分类任务。在 DGL 里我们实现了一个迷你图分类数据集(MiniGCDataset)。它由以下 8 类图结构数据组成。每一类图包含同样数量的随机样本。任务目标是训练图神经网络模型对这些样本进行分类。
图分类(预测图的标签)是图结构数据里一类重要的问题。它的应用广泛,可见于生物信息学、化学信息学、社交网络分析、城市计算以及网络安全。随着近来学界对于 图神经网络 的热情持续高涨,出现了一批用图神经网络做图分类的工作。比如训练图神经网络来预测蛋白质结构的性质,根据社交网络结构来预测用户的所属社区等(Ying et al., 2018, Cangea et al., 2018, Knyazev et al., 2018, Bianchi et al., 2019, Liao et al., 2019, Gao et al., 2019)。
在这个教程里,我们将一起学习:
-
如何使用 DGL 批量化处理大小各异的图数据
-
训练图神经网络完成一个简易的图分类任务
简易图分类任务
这里我们设计了一个简单的图分类任务。在 DGL 里我们实现了一个迷你图分类数据集(MiniGCDataset)。它由以下 8 类图结构数据组成。每一类图包含同样数量的随机样本。任务目标是训练图神经网络模型对这些样本进行分类。
以下是使用 MiniGCDataset 的示例代码。我们先创建了一个拥有 80 个样本的数据集。数据集中每张图随机有 10 到 20 个节点。DGL 中所有的数据集类都符合 Sequence 的抽象结构——既可以使用 dataset[i] 来访问第 i 个样本。这里每个样本包含图结构以及它对应的标签。
from dgl.data import MiniGCDataset import matplotlib.pyplot as plt import networkx as nx # 数据集包含了80张图。每张图有10-20个节点 dataset = MiniGCDataset(80, 10, 20) graph, label = dataset[0] fig, ax = plt.subplots() nx.draw(graph.to_networkx(), ax=ax) ax.set_title('Class: {:d}'.format(label)) plt.show()
运行以上代码后可以画出数据集中第一个样本的图结构以及它对应的标签:
打包一个图的小批量
为了更高效地训练神经网络,一个常见的做法是将多个样本打包成小批量(mini-batch)。打包尺寸相同的张量样本非常简单。比如说打包两个尺寸为 2828 的图片会得到一个 22828 的张量。相较之下,打包图面临两个挑战:
-
图的边比较稀疏
-
图的大小、形状各不相同
DGL 提供了名为 dgl.batch 的接口来实现打包一个图批量的功能。其核心思路非常简单。将 n 张小图打包在一起的操作可以看成是生成一张含 n 个不相连小图的大图。下图的可视化从直觉上解释了 dgl.batch 的功能。
可以看到通过 dgl.batch 操作,我们生成了一张大图,其中包含了一个环状和一个星状的连通分量。其邻接矩阵表示则对应为在对角线上把两张小图的邻接矩阵拼接在一起(其余部分都为 0)。
以下是使用 dgl.batch 的一个实际例子。我们定义了一个 collate 函数来将 MiniGCDataset 里多个样本打包成一个小批量。
import dgl def collate(samples): # 输入`samples` 是一个列表 # 每个元素都是一个二元组 (图, 标签) graphs, labels = map(list, zip(*samples)) batched_graph = dgl.batch(graphs) return batched_graph, torch.tensor(labels)
正如打包 N 个张量得到的还是张量,dgl.batch 返回的也是一张图。这样的设计有两点好处。首先,任何用于操作一张小图的代码可以被直接使用在一个图批量上。其次,由于 DGL 能够并行处理图中节点和边上的计算,因此同一批量内的图样本都可以被并行计算。
图分类器
这里使用的图分类器和应用在图像或者语音上的分类器类似——先通过多层神经网络计算每个样本的表示(representation),再通过表示计算出每个类别的概率,最后通过向后传播计算梯度。一个常见的图分类器由以下几个步骤构成:
-
通过图卷积(Graph Convolution)层获得图中每个节点的表示。
-
使用「读出」操作(Readout)获得每张图的表示。
-
使用 Softmax 计算每个类别的概率,使用向后传播更新参数。
下图展示了整个流程:
之后我们将分步讲解每一个步骤。
图卷积
我们的图卷积操作基本类似图卷积网络 GCN(具体可以参见我们的关于 GCN 的教程)。图卷积模型可以用以下公式表示:
在这个例子中,我们对这个公式进行了微调:
我们将求和替换成求平均可用来平衡度数不同的节点,在实验中这也带来了模型表现的提升。
此外,在构建数据集时,我们给每个图里所有的节点都加上了和自己的边(自环)。这保证节点在收集邻居节点表示进行更新时也能考虑到自己原有的表示。以下是定义图卷积模型的代码。这里我们使用 PyTorch 作为 DGL 的后端引擎(DGL 也支持 MXNet 作为后端)。
首先,我们使用 DGL 的内置函数定义消息传递:
import dgl.function as fn import torch import torch.nn as nn # 将节点表示h作为信息发出 msg = fn.copy_src(src='h', out='m')
其次,我们定义消息累和函数。这里我们对收到的消息进行平均。
def reduce(nodes): """对所有邻节点节点特征求平均并覆盖原本的节点特征。""" accum = torch.mean(nodes.mailbox['m'], 1) return {'h': accum}
之后,我们对收到的消息应用线性变换和激活函数。
class NodeApplyModule(nn.Module): """将节点特征 hv 更新为 ReLU(Whv+b).""" def __init__(self, in_feats, out_feats, activation): super(NodeApplyModule, self).__init__() self.linear = nn.Linear(in_feats, out_feats) self.activation = activation def forward(self, node): h = self.linear(node.data['h']) h = self.activation(h) return {'h' : h}
最后,我们把所有的小模块串联起来成为 GCNLayer。
class GCNLayer(nn.Module): def __init__(self, in_feats, out_feats, activation): super(GCNLayer, self).__init__() self.apply_mod = NodeApplyModule(in_feats, out_feats, activation) def forward(self, g, feature): # 使用 h 初始化节点特征。 g.ndata['h'] = feature # 使用 update_all接口和自定义的消息传递及累和函数更新节点表示。 g.update_all(msg, reduce) g.apply_nodes(func=self.apply_mod) return g.ndata.pop('h')
读出和分类
读出(Readout)操作的输入是图中所有节点的表示,输出则是整张图的表示。在 Google 的 Neural Message Passing for Quantum Chemistry(Gilmer et al. 2017) 论文中总结过许多不同种类的读出函数。在这个示例里,我们对图中所有节点表示取平均以作为图的表示:
DGL 提供了许多读出函数接口,以上公式可以很方便地用 dgl.mean(g) 完成。最后我们将图的表示输入分类器。分类器对图表示先做了一个线性变换然后得到每一类在 softmax 之前的 logits。具体代码如下:
import torch.nn.functional as F class Classifier(nn.Module): def __init__(self, in_dim, hidden_dim, n_classes): super(Classifier, self).__init__() # 两层图卷积层。 self.layers = nn.ModuleList([ GCNLayer(in_dim, hidden_dim, F.relu), GCNLayer(hidden_dim, hidden_dim, F.relu)]) # 分类层。 self.classify = nn.Linear(hidden_dim, n_classes) def forward(self, g): # 使用节点度数作为初始节点表示。 h = g.in_degrees().view(-1, 1).float() # 图卷积层。 for conv in self.layers: h = conv(g, h) g.ndata['h'] = h # 读出函数。 graph_repr = dgl.mean_nodes(g, 'h') # 分类层。 return self.classify(graph_repr)
准备和训练
阅读到这边的读者可以长舒一口气了。因为之后的训练过程和其他经典的图像,语音分类问题基本一致。首先我们创建了一个包含 400 张节点数量为 10~20 的合成数据集。其中 320 张图作为训练数据集,80 张图作为测试集。
import torch.optim as optim from torch.utils.data import DataLoader # 创建一个训练数据集和测试数据集 trainset = MiniGCDataset(320, 10, 20) testset = MiniGCDataset(80, 10, 20) # 使用 PyTorch 的 DataLoader 和之前定义的 collate 函数。 data_loader = DataLoader(trainset, batch_size=32, shuffle=True, collate_fn=collate)
其次我们创建一个刚刚定义的图神经网络模型对象。
# 创建模型 model = Classifier(1, 256, trainset.num_classes) loss_func = nn.CrossEntropyLoss() optimizer = optim.Adam(model.parameters(), lr=0.001) model.train()
训练过程则是经典的反向传播和梯度下降。
# 创建模型 epoch_losses = [] for epoch in range(80): epoch_loss = 0 for iter, (bg, label) in enumerate(data_loader): prediction = model(bg) loss = loss_func(prediction, label) optimizer.zero_grad() loss.backward() optimizer.step() epoch_loss += loss.detach().item() epoch_loss /= (iter + 1) print('Epoch {}, loss {:.4f}'.format(epoch, epoch_loss)) epoch_losses.append(epoch_loss)
下图是以上模型训练的学习曲线:
在训练完成后,我们在测试集上验证模型的表现。出于部署教程的考量,我们限制了模型训练的时间。如果你花更多时间训练模型,应该能得到更好的表现(80%-90%)。
我们还制作了一个动画来展示训练好的模型预测每张图真实标签的概率。可以看到我们刚刚定义的图神经网络能够较为准确地预测出图样本的对应标签:
为了更好地理解模型学到的节点和图的表示,我们使用了 t-SNE 来进行降维和可视化。
顶部的两张小图分别可视化了做完 1 层和 2 层图卷积后的节点表示。不同颜色代表属于不同类别的图的节点。可以看到,经过训练后,属于同一类别的节点表示更加接近。并且,经过两层图卷积后这一聚类效果更明显。其原因是因为两层卷积后每个节点能接收到 2 度范围内的邻居信息。
底部的大图可视化了每张图在做 softmax 前的 logits,也就是图表示。可以看到通过读出函数后,图表示能非常好地各自区分开来。这一区分度比节点表示更加明显。
拓展阅读
使用图神经网络作图分类还是一个崭新的领域。这个任务并不简单,需要模型能将不同的图结构数据映射到不同的表示,同时要求图表示可以保存它们结构和内容上的异同。欲知更多内容,ICLR 2019 上新鲜出炉的 oral paper How Powerful Are Graph Neural Networks? 可能是一个不错的出发点。
以上代码都可以在我们的文档网站下载: https://docs.dgl.ai/tutorials/basics/4_batch.html
对于想要更进一步学习用 DGL 进行批量化图处理,以下内容可能会有所帮助:
-
Tree LSTM 教程。该模型需要批处理多个句子的语法书结构。
-
Deep Generative Models of Graphs 的 DGL 教程。
-
Junction Tree VAE 的 DGL 示例代码。该模型根据分子结构图来预测分子性质。
关于 DGL 专栏: DGL 是一款全新的面向图神经网络的开源框架。通过该专栏,我们 DGL 团队希望和大家一起学习图神经网络的最新进展。同时展示 DGL 的灵活性和高效性。通过系统学习算法,通过算法理解系统。
以上所述就是小编给大家介绍的《手把手教你用DGL框架进行批量图分类》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!
猜你喜欢:- 基于spring boot框架进行二次封装,微型框架编写思路
- Gin框架中使用JWT进行接口认证
- 两万字谈谈如何使用 Scrum 框架进行敏捷开发
- CoffeeMiner:劫持WiFi网络接入设备进行“挖矿”的框架
- Golang学习——基于Gin框架进行httptest单元测试
- 轻松进行深度学习的11种Python库和框架
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
区块链与人工智能:数字经济新时代
高航、俞学劢、王毛路 / 电子工业出版社 / 2018-7-23 / 80
《区块链与人工智能》是畅销书《区块链与新经济:数字货币2.0时代》全新修订升级版。本书是市场上为数不多的系统阐述区块链、人工智能技术与产业的入门级系统教程。从比特币到各类数字货币(代币),从基础原理到应用探讨,全景式呈现区块链与人工智能的发展脉络,既有历史的厚重感也有科技的未来感。本书的另一个亮点是系统整理了区块链创业地图,是一本关于区块链创业、应用、媒体的学习指南,以太坊创始人Vitalik专门......一起来看看 《区块链与人工智能:数字经济新时代》 这本书的介绍吧!