深度学习这些“坑”你们有没有踩过(入门误区)

栏目: 数据库 · 发布时间: 5年前

内容简介:最近很多新入门的同学加入我们的大家庭,陆续加入到我们的学习群。如果你是入门及想提升自己的同学,我希望你可以考虑加入我们知识星球,我们定时会有详细的相关领域知识分解,并给出相应的动手实践,手把手带大家熟悉每个分支的具体实施过程,也给大家带来更多的动力及兴趣。

深度学习这些“坑”你们有没有踩过(入门误区)

首先和大家说一声对不起,昨天由于平台安全问题,账号被黑入,发送了与本平台主旨背道而驰的内容,发现问题我们立马删除了,在此向大家说一声抱歉。

我们“计算机视觉战队”微信公众号,之后还会用心做我们该做的,希望没有给同学们带来困惑,也感谢大家长久以来的支持

最近很多新入门的同学加入我们的大家庭,陆续加入到我们的学习群。如果你是入门及想提升自己的同学,我希望你可以考虑加入我们知识星球,我们定时会有详细的相关领域知识分解,并给出相应的动手实践,手把手带大家熟悉每个分支的具体实施过程,也给大家带来更多的动力及兴趣。

深度学习这些“坑”你们有没有踩过(入门误区)

深度学习这些“坑”你们有没有踩过(入门误区)

今天我们给大家带来一些基础性的理解,有兴趣的同学可以细读,慢慢体会其中的一些知识,希望给大家来来一些帮助。谢谢~

深度学习这些“坑”你们有没有踩过(入门误区)

定位 深层学习在哪?

深层学习需要什么?

数学

线性代数:是有关任意维度空间下事物状态和状态变化的规则。

深度学习这些“坑”你们有没有踩过(入门误区)

(推荐可以阅读这本书)

概       率:是用来衡量我们对事物在跨时间后不同状态的确信度。

深度学习这些“坑”你们有没有踩过(入门误区)

(推荐可以阅读这本书)

编程

深度学习这些“坑”你们有没有踩过(入门误区)

操作矩阵

实现数学想法

Python


深度学习这些“坑”你们有没有踩过(入门误区)

深度学习这些“坑”你们有没有踩过(入门误区)

学习的难点

其实就是学习寻找关联函数f的过程。

难点 需要在未见过的任务上表现良好

有一种极端情况:

记忆: 记住所有的训练样本和对应标签。

深度学习这些“坑”你们有没有踩过(入门误区)

深度学习这些“坑”你们有没有踩过(入门误区)

实际: 无法被穷尽, 各式各样的变体。

深度学习这些“坑”你们有没有踩过(入门误区)

深度学习这些“坑”你们有没有踩过(入门误区)

关于函数f的寻找

深度学习这些“坑”你们有没有踩过(入门误区)

维度的问题

深度学习这些“坑”你们有没有踩过(入门误区)

维度越大,我们越无法获得所有的情况。

深度学习这些“坑”你们有没有踩过(入门误区)

面临没见过的情况,一般是将左右的情况平均一下。但是这种方法在高维数据下并不适用。

分布式表达

深度学习这些“坑”你们有没有踩过(入门误区)

原本需要8个不同情况,现在只需要6个。因为8个变体是有3种因素组合而成的。

数字表示法:解决变化的因素。

椭圆这个factor实际上也是有变体的,可以以相同的思路继续拆分,继续降低训练所需数据量。

No Free Lunch Theorem

深度学习这些“坑”你们有没有踩过(入门误区)

任何两个优化算法是等价的,当它们的性能是在所有可能的问题的平均值。

深度学习这些“坑”你们有没有踩过(入门误区)

深度 VS 浅层

分布式表达是将变体拆分成因素。 但是如果用无限节点的浅层网络,所拆分的变体并不会在不同样本之间形成共享。

而深层神经网络,由于拆分的变体可以在不同样本间共享,在浅层网络中只负责学习自己的关联,而在深层网络中,那些共用相同因素的样本也会被间接的训练到。换句话说,深层的优势在于节省了训练所需的数据量。

深度学习这些“坑”你们有没有踩过(入门误区)

关键: 因素的共享

深度学习这些“坑”你们有没有踩过(入门误区)

深层神经网络

学习的过程是因素间的关系的拆分,关系的拆分是信息的回卷,信息的回卷是变体的消除,变体的消除是不确定性的缩减。

深度学习这些“坑”你们有没有踩过(入门误区)

自然界两个固有的先验知识:

并行 新状态是由若干旧状态并行组合形成。

迭代 新状态由已形成的状态再次迭代形成。

深度学习这些“坑”你们有没有踩过(入门误区)

应用 如何设计网络

  1. 拆分因素:将变体拆分成因素,降低训练所需数据量。

  2. 因素共享:使所拆分的因素在不同的样本之间形成共享,可以用等量的数据训练出更好的模型。

深度学习这些“坑”你们有没有踩过(入门误区)

每一层表示事物的一种状态, 设计神经网络时,要以“层”为单元。

  1. 误区1: 深层学习并非万能,应用先验知识的前提是数据可以以先验知识的方式生成

  2. 误区2: 深层学习没有固定形式,可以依据上两个要点设计出各式各样的网络。

深度学习这些“坑”你们有没有踩过(入门误区)

神经网络变体

循环层: 时间共享

深度学习这些“坑”你们有没有踩过(入门误区)

如果用前馈层,每个圆圈表示100个节点,那么前馈层处理时序相关性时就需要学习300个权重。

但如果知道不同权重在时间下是共享的,那么就只需要学习200个权重。

卷积层: 空间共享

深度学习这些“坑”你们有没有踩过(入门误区)

如果用前馈层,那么需要学习81个权重,但如果知道这些权重在空间下是共享的,那么可能只需要学习9个权重。原本一张图片在前馈层中只能用于学习一次权重,在卷基层中却可以学习很多次。

深度学习这些“坑”你们有没有踩过(入门误区)

设计自己的神经网络

深度学习这些“坑”你们有没有踩过(入门误区)

两个方向相加的 双向循环层一般比相并的效果好

  • 神经网络其实并不黑箱,真正黑箱的是你的Task。

  • 设计神经网络就是寻找在你手头的Task上利用因素拆分和因素共享的合理方式

  • 可以先经过前馈层再经过双向循环层再经过前馈层最终得到你的结果。

深度学习这些“坑”你们有没有踩过(入门误区)

案例

深度学习这些“坑”你们有没有踩过(入门误区)

深度学习这些“坑”你们有没有踩过(入门误区)

某些技术

多任务学习muti-task learning,利用的是因素共享,多个任务共享相同的知识,这样就会更容易确定我们真正想要的关联f,而排除掉那些只符合训练数据集,而不符合测试数据集的关联。

joint learningend-to-end learning ,是因素共享+因素拆分的联合应用。 通过缩减人工预处理和后续处理,尽可能使模型从原始输入到最终输出,给模型更多可以根据数据自动调节的空间,增加模型的整体契合度。

深度学习这些“坑”你们有没有踩过(入门误区)

人工智能对我们的影响

深度学习这些“坑”你们有没有踩过(入门误区)

END

深度学习这些“坑”你们有没有踩过(入门误区)

计算机视觉战队

最优秀的AI团队

加入我们,一起学习,共同进步!

(向左滑动,有惊喜)

如果想加入我们“ 计算机视觉战队 ”,请扫二维码加入学习群。 计算机视觉战队 主要涉及 机器学习、深度学习 等领域,由来自于各校的硕博研究生组成的团队,主要致力于 人脸检测、人脸识别,多目标检测、目标跟踪、图像分割等 研究方向。


以上所述就是小编给大家介绍的《深度学习这些“坑”你们有没有踩过(入门误区)》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

Realm of Racket

Realm of Racket

Matthias Felleisen、Conrad Barski M.D.、David Van Horn、Eight Students Northeastern University of / No Starch Press / 2013-6-25 / USD 39.95

Racket is the noble descendant of Lisp, a programming language renowned for its elegance and power. But while Racket retains the functional goodness of Lisp that makes programming purists drool, it wa......一起来看看 《Realm of Racket》 这本书的介绍吧!

Base64 编码/解码
Base64 编码/解码

Base64 编码/解码

URL 编码/解码
URL 编码/解码

URL 编码/解码

HSV CMYK 转换工具
HSV CMYK 转换工具

HSV CMYK互换工具