内容简介:一个帮助初学者理解深度神经网络内部工作机制的指南写作动机:为了使我自己可以更好地理解深度学习,我决定在没有像 TensorFlow 这样的深度学习库的情况下,从零开始构建一个神经网络。我相信,理解神经网络的内部工作原理对任何有追求的数据科学家来说都很重要。这篇文章包含了我所学到的东西,希望对你们也有用。
一个帮助初学者理解深度神经网络内部工作机制的指南
写作动机:为了使我自己可以更好地理解深度学习,我决定在没有像 TensorFlow 这样的深度学习库的情况下,从零开始构建一个神经网络。我相信,理解神经网络的内部工作原理对任何有追求的数据科学家来说都很重要。
这篇文章包含了我所学到的东西,希望对你们也有用。
什么是神经网络?
大多数介绍神经网络的文章在描述它们时都会与大脑做类比。在不深入研究与大脑类似之处的情况下,我发现将神经网络简单地描述为给定输入映射到期望输出的数学函数更容易理解一些。
神经网络由以下几个部分组成:
- 一个 输入层 , x
- 任意数量的 隐含层
- 一个 输出层 , ŷ
- 层与层之间的一组 权重 和 偏差 , W 和 b
- 每个隐含层中所包含的一个可选的 激活函数 , σ 。在本教程中,我们将使用 Sigmoid 激活函数。
下图展示了 2 层神经网络的架构( 注:在计算神经网络中的层数时,输入层通常被排除在外 )
2 层神经网络的架构
在 Python 中创建一个神经网络的类很简单。
class NeuralNetwork: def __init__(self, x, y): self.input = x self.weights1 = np.random.rand(self.input.shape[1],4) self.weights2 = np.random.rand(4,1) self.y = y self.output = np.zeros(y.shape) 复制代码
训练神经网络
一个简单的 2 层神经网络的输出 ŷ 如下:
你可能注意到了,在上面的等式中,只有权重 W 和偏差 b 这两个变量会对输出 ŷ 产生影响。
当然,合理的权重和偏差会决定预测的准确程度。将针对输入数据的权重和偏差进行微调的过程就是 训练神经网络 的过程。
训练过程的每次迭代包括以下步骤:
- 计算预测输出的值 ŷ ,即 前馈
- 更新权重和偏差,即 反向传播
下面的序列图展示了这个过程。
前馈过程
正如我们在上面的序列图中看到的,前馈只是一个简单的计算过程,对于一个基本的 2 层神经网络,它的输出是:
让我们在 Python 代码中添加一个前馈函数来实现这一点。注意,为了简单起见,我们假设偏差为 0。
class NeuralNetwork: def __init__(self, x, y): self.input = x self.weights1 = np.random.rand(self.input.shape[1],4) self.weights2 = np.random.rand(4,1) self.y = y self.output = np.zeros(self.y.shape) def feedforward(self): self.layer1 = sigmoid(np.dot(self.input, self.weights1)) self.output = sigmoid(np.dot(self.layer1, self.weights2)) 复制代码
但是,我们仍然需要一种方法来评估预测的“精准程度”(即我们的预测有多好)?而 损失函数 能让我们做到这一点。
损失函数
可用的损失函数有很多,而我们对损失函数的选择应该由问题本身的性质决定。在本教程中,我们将使用简单的 平方和误差 作为我们的损失函数。
这就是说,平方和误差只是每个预测值与实际值之差的总和。我们将差值平方后再计算,以便我们评估误差的绝对值。
训练的目标是找到能使损失函数最小化的一组最优的权值和偏差。
反向传播过程
现在我们已经得出了预测的误差(损失),我们还需要找到一种方法将误差 传播 回来,并更新我们的权重和偏差。
为了得出调整权重和偏差的合适的量,我们需要计算 损失函数对于权重和偏差的导数 。
回忆一下微积分的知识,计算函数的导数就是计算函数的斜率。
梯度下降算法
如果我们已经算出了导数,我们就可以简单地通过增大/减小导数来更新权重和偏差(参见上图)。这就是所谓的 梯度下降 。
然而,我们无法直接计算损失函数对于权重和偏差的导数,因为损失函数的等式中不包含权重和偏差。 因此,我们需要 链式法则 来帮助我们进行计算。
为了更新权重使用链式法则求解函数的导数。注意,为了简单起见,我们只展示了假设为 1 层的神经网络的偏导数。
哦!这真难看,但它让我们得到了我们需要的东西 —— 损失函数对于权重的导数(斜率),这样我们就可以相应地调整权重。
现在我们知道要怎么做了,让我们向 Pyhton 代码中添加反向传播函数。
class NeuralNetwork: def __init__(self, x, y): self.input = x self.weights1 = np.random.rand(self.input.shape[1],4) self.weights2 = np.random.rand(4,1) self.y = y self.output = np.zeros(self.y.shape) def feedforward(self): self.layer1 = sigmoid(np.dot(self.input, self.weights1)) self.output = sigmoid(np.dot(self.layer1, self.weights2)) def backprop(self): # 应用链式法则求出损失函数对于 weights2 和 weights1 的导数 d_weights2 = np.dot(self.layer1.T, (2*(self.y - self.output) * sigmoid_derivative(self.output))) d_weights1 = np.dot(self.input.T, (np.dot(2*(self.y - self.output) * sigmoid_derivative(self.output), self.weights2.T) * sigmoid_derivative(self.layer1))) # 用损失函数的导数(斜率)更新权重 self.weights1 += d_weights1 self.weights2 += d_weights2 复制代码
如果你需要更深入地理解微积分和链式法则在反向传播中的应用,我强烈推荐 3Blue1Brown 的教程。
观看 视频教程
融会贯通
现在我们已经有了前馈和反向传播的完整 Python 代码,让我们将神经网络应用到一个示例中,看看效果如何。
我们的神经网络应该通过学习得出一组理想的权重来表示这个函数。请注意,仅仅是求解权重的过程对我们来说也并不简单。
让我们对神经网络进行 1500 次训练迭代,看看会发生什么。观察下图中每次迭代的损失变化,我们可以清楚地看到损失 单调递减至最小值 。这与我们前面讨论的梯度下降算法是一致的。
让我们看一下经过 1500 次迭代后神经网络的最终预测(输出)。
1500 次训练迭代后的预测结果
我们成功了!我们的前馈和反向传播算法成功地训练了神经网络,预测结果收敛于真实值。
请注意,预测值和实际值之间会存在细微的偏差。我们需要这种偏差,因为它可以防止 过拟合 ,并允许神经网络更好地 推广 至不可见数据中。
后续的学习任务
幸运的是,我们的学习旅程还未结束。关于神经网络和深度学习,我们还有 很多 内容需要学习。例如:
- 除了 Sigmoid 函数,我们还可以使用哪些 激活函数 ?
- 在训练神经网络时使用 学习率
- 使用 卷积 进行图像分类任务
我将会就这些主题编写更多内容,请在 Medium 上关注我并留意更新!
结语
当然,我也在从零开始编写我自己的神经网络的过程中学到了很多。
虽然像 TensorFlow 和 Keras 这样的深度学习库使得构建深度神经网络变得很简单,即使你不完全理解神经网络内部工作原理也没关系,但是我发现对于有追求的数据科学家来说,深入理解神经网络是很有好处的。
这个练习花费了我大量的时间,我希望它对你们也有帮助!
如果发现译文存在错误或其他需要改进的地方,欢迎到 掘金翻译计划 对译文进行修改并 PR,也可获得相应奖励积分。文章开头的 本文永久链接 即为本文在 GitHub 上的 MarkDown 链接。
掘金翻译计划 是一个翻译优质互联网技术文章的社区,文章来源为掘金 上的英文分享文章。内容覆盖 Android 、 iOS 、 前端 、 后端 、 区块链 、 产品 、 设计 、 人工智能 等领域,想要查看更多优质译文请持续关注 掘金翻译计划 、官方微博、 知乎专栏 。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网
猜你喜欢:- 使用tensorflow构建一个卷积神经网络
- 快速入门 PyTorch(二):如何构建一个神经网络
- 超简单的神经网络构建方法,你上你也行!
- 用自己的数据构建一个简单的卷积神经网络
- [译] Keras 速查表:使用 Python 构建神经网络
- 构建和优化深度学习模型(神经网络机器识图)
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
硅谷百年史
[美]阿伦·拉奥(Arun Rao)、[美]皮埃罗·斯加鲁菲(Piero Scarruffi) / 闫景立、侯爱华 / 人民邮电出版社 / 2014-4-1 / 99.00
一百多年来,仅硅谷就培育了50多位诺贝尔奖获得者,以及无数依靠智慧和知识而成为百万富翁的人。这一人类历史上最伟大的科技创新与创业历程为什么会发生在硅谷?究竟是如何发生的?其他地方是否可以复制出“硅谷”? 《硅谷百年史——伟大的科技创新与创业历程(1900-2013)》以编年体的顺序,从无线电技术、晶体管、集成电路,到人类基因组、互联网和云计算,详尽地记述了硅谷在100多年中所发生的重大科技事......一起来看看 《硅谷百年史》 这本书的介绍吧!