【火炉炼AI】深度学习004-Elman循环神经网络

栏目: 编程工具 · 发布时间: 6年前

内容简介:(本文所使用的Python库和版本号: Python 3.6, Numpy 1.14, scikit-learn 0.19, matplotlib 2.2 )Elman神经网络是最早的循环神经网络,由Elman于1990年提出,又称为SRN(Simple Recurrent Network, 简单循环网络)。SRN考虑了时序信息,当前时刻的输出不仅和当前时刻的输入有关,还和前面所有时刻的输入有关。SRN是RNN结构中最简单的一种,相对于传统的两层全连接前馈网络,它仅仅在全连接层添加了时序反馈连接。简单点来

(本文所使用的 Python 库和版本号: Python 3.6, Numpy 1.14, scikit-learn 0.19, matplotlib 2.2 )

Elman神经网络是最早的循环神经网络,由Elman于1990年提出,又称为SRN(Simple Recurrent Network, 简单循环网络)。SRN考虑了时序信息,当前时刻的输出不仅和当前时刻的输入有关,还和前面所有时刻的输入有关。SRN是RNN结构中最简单的一种,相对于传统的两层全连接前馈网络,它仅仅在全连接层添加了时序反馈连接。

简单点来理解,以前的深度神经网络的计算可以简单理解为:yt=f(Xt),而SRN却把上一个时刻的结果也当做输入放入模型中,相当于yt=f(Xt,yt-1),由于这种递归性,每一个yt结果不仅仅和自身的特征向量Xt有关,还和前一个时刻的输出结果yt-1有关,如此递归,便认为yt和以前的所有的Xt,Xt-1,Xt-2...都有关,那么yt就相当于“记住了”前面N个时刻的所有输入变量X.

那么SRN是怎么做到这一点的了?SRN一般分为四层:输入层,隐含层,承接层,输出层,和前面讲到的简单神经网络不同的是,承接层就起到一个临时变量Var的作用,在t-1时刻得到的结果yt-1后,把yt-1输出的同时也保存一份给Var,然后再计算t时刻的结果是,把Var也当做一个变量输入,所以Var相当于一个延时算子,达到记忆的目的,使得整个网络结构具有适应时间序列的应变能力。如下图所示:

【火炉炼AI】深度学习004-Elman循环神经网络

图中的循环层其实就是承接层,名称不同而已,这个网络结构不太容易看出时序性,故而展开后为:

【火炉炼AI】深度学习004-Elman循环神经网络

图片来源于 Recurrent Neural Network(循环神经网络) .

关于更多更复杂的循环神经网络结构,可以参考博文 循环神经网络(RNN, Recurrent Neural Networks)介绍

那么怎么建立并训练SRN模型了?

1. 构建并训练Elman循环神经网络

1.1 准备数据集

此次我们自动生成一系列数据,该系列数据包含四段数据,如下为数据生成函数。

# 准备数据集
# 用np生成一些序列数据,这个序列数据有四段
def waveform_dataset(points_num):
    '''建立波形数据集,这个数据集含有四段,每一段的数据点数为points_num'''
    stage1=1*np.cos(np.arange(points_num))
    stage2=2*np.cos(np.arange(points_num))
    stage3=3*np.cos(np.arange(points_num))
    stage4=4*np.cos(np.arange(points_num))
    
    dataset_X=np.array([stage1,stage2,stage3,stage4])# 4行points_num列
    dataset_X=dataset_X.reshape(points_num*4,1) # 转变为:4*points_num行,一列,即为整个序列
    
    amp1 = np.ones(points_num) # 每一段数据的幅度不同 分别是1,4,2,0.5
    amp2 = 4 + np.zeros(points_num) 
    amp3 = 2 * np.ones(points_num) 
    amp4 = 0.5 + np.zeros(points_num) 
    dataset_y=np.array([amp1,amp2,amp3,amp4]).reshape(points_num*4,1)
    return dataset_X,dataset_y
复制代码

可以看看数据集的分布情况:

【火炉炼AI】深度学习004-Elman循环神经网络

1.2 构建并训练模型

直接上代码,此处用neurolab模块中的现有函数newelm()来构建一个SRN模型,包含两层神经网络。

# 构建并训练模型
import neurolab as nl
net = nl.net.newelm([[-2, 2]], [10, 1], [nl.trans.TanSig(), nl.trans.PureLin()])
# 创建两层的神经网络
net.layers[0].initf = nl.init.InitRand([-0.1, 0.1], 'wb')
net.layers[1].initf= nl.init.InitRand([-0.1, 0.1], 'wb')
net.init()
# 网络的初始化
error = net.train(dataset_X, dataset_y, epochs=3000, show=300, goal=0.01)
复制代码

-------------------------------------输---------出--------------------------------

Epoch: 300; Error: 0.08632353521527447; Epoch: 600; Error: 0.07758197978278435; Epoch: 900; Error: 0.047083147244329486; Epoch: 1200; Error: 0.03948011155907889; Epoch: 1500; Error: 0.03808612642771739; Epoch: 1800; Error: 0.03600983543384789; Epoch: 2100; Error: 0.04108011778013388; Epoch: 2400; Error: 0.0388262030539809; Epoch: 2700; Error: 0.033576743782171244; Epoch: 3000; Error: 0.03329548827926802; The maximum number of train epochs is reached

--------------------------------------------完-------------------------------------

1.3 用训练好的模型预测新样本

此处假设训练集所用的dataset_X为新样本,那么看看得到的结果和预测值之间的差异。

# 用训练好的模型预测新样本
predict_y=net.sim(dataset_X)
plt.plot(dataset_y,label='dataset')
plt.plot(predict_y,label='predicted')
plt.legend()
plt.title('Comparison of Truth and Predicted')
复制代码
【火炉炼AI】深度学习004-Elman循环神经网络

当然,我们也可以用函数waveform_dataset()来产生一些新数据,然后用训练好的模型预测一下试试。

# 生成新的数据集
newset_X,newset_y=waveform_dataset(100)
predict_y=net.sim(newset_X)
plt.plot(newset_y,label='dataset')
plt.plot(predict_y,label='predicted')
plt.legend()
plt.title('Comparison of Truth and Predicted')
复制代码
【火炉炼AI】深度学习004-Elman循环神经网络

可以发现,对于新产生的序列数据,该模型也能够大体预测出来。

########################小**********结###############################

1,neurolab中已经集成了一些简单的神经网络方面的函数,比如最简单的循环神经网络模型--Elman循环神经网络,对于复杂的或者需要自己定义的循环神经网络,需要用其他更复杂的深度学习框架。

1,Elman循环神经网络模型是一种最简单的循环神经网络结构,只能解决一些相对简单的序列数据问题。

#################################################################

注:本部分代码已经全部上传到( 我的github )上,欢迎下载。

参考资料:

1, Python机器学习经典实例,Prateek Joshi著,陶俊杰,陈小莉译


以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

我++

我++

威廉·J·米切尔 / 刘小虎等 / 中国建筑工业出版社 / 2006-6 / 50.00元

随着《我++——电子自我和互联城市》(Me++:The Cyborg Self And The Networked City)的出版,《比特之城》(City Of Bits)和《E-托邦》(E-topia)的作者完成了一套检验信息技术在日常生活中之衍生的非正式三部曲。威廉·J·米切尔描述了自马可尼以后的百年间无线技术的发展变化:网络的不断扩大,发送和接受装置的不断缩小。正如他所说,这就像“大人国重......一起来看看 《我++》 这本书的介绍吧!

JS 压缩/解压工具
JS 压缩/解压工具

在线压缩/解压 JS 代码

SHA 加密
SHA 加密

SHA 加密工具

XML 在线格式化
XML 在线格式化

在线 XML 格式化压缩工具