Yan LeCun强推的AI简史:两大流派世纪之争,神经网络华丽回归

栏目: 数据库 · 发布时间: 6年前

内容简介:2010年以来,基于机器学习(尤其是深度学习)的预测算法在一些领域取得了极大的成功,比如说图像识别和机器翻译。而我们把这些算法都称作是人工智能(AI)。不过,深度学习成为这些领域的主流并不是一蹴而就的。在人工智能纷繁的历史中,联结主义(神经网络就属于联结主义)长时间被符号主义所排斥。这篇论文通过符号主义和联结主义之间的斗争,回溯了人工智能的历史,以及最近深度学习的出现。在这篇被Yan LeCun等多位大咖推荐的法语文章中,我们将看到,联结主义的科研者们是如何使用大量的数据和强大的算力,一步步用控制论时代的

2010年以来,基于机器学习(尤其是深度学习)的预测算法在一些领域取得了极大的成功,比如说图像识别和机器翻译。而我们把这些算法都称作是人工智能(AI)。

不过,深度学习成为这些领域的主流并不是一蹴而就的。在人工智能纷繁的历史中,联结主义(神经网络就属于联结主义)长时间被符号主义所排斥。这篇论文通过符号主义和联结主义之间的斗争,回溯了人工智能的历史,以及最近深度学习的出现。

在这篇被Yan LeCun等多位大咖推荐的法语文章中,我们将看到,联结主义的科研者们是如何使用大量的数据和强大的算力,一步步用控制论时代的自适应推断机,并主导了符号主义提出的人工智能项目。

大数据文摘将全文翻译如下,enjoy。 

2012年10月 ECCV 会议中的一幕将成为计算机发展史上的一个传奇。ECCV几乎汇集了计算机视觉领域的所有优秀的研究人员。

“所以在2012年 ECCV 组织的比赛中,谁赢了?”

是Hinton,神经网络之父!

他给计算机视觉领域带来了一场地震——他和他的学生提供的系统将传统的方法打的一败涂地,而之前他甚至在该领域鲜有研究。

他的学生Alex Krizhevsky提出的AlexNet类似于一个黑箱,Alex对这个黑箱说:“你给我好好训练,等可以得到好的结果了,就结束吧。”

当时他们使用带有 GPU 的机器进行训练。但是和现在相比,机器的算力还是很有限的,但他们通过一些技巧使GPU之间的通信变得高效,并控制了通信的性能损耗。

这绝对是一个疯狂的机器,否则它永远不会成功。

那个时候,计算机视觉领域的研究人员都在为ImageNet这个数据集感到兴奋。这个数据集有120万张带标签的图片,共有1000多个类别,是衡量比较不同的模型的基准。

第一名的错误率是27.3%,第二名是27.18%,第三名是27.68%。而 Hinton 他们使用了AlexNet:“我们跑的模型很深,我们的错误率是17%”,这个错误率比之前最优模型减少了10%。Alex 这个穿黄衣服的极客,他做到了!他宣布结果,房间里的所有人都震惊了。

他也不能解释为什么要使用这样的技巧,他只是造了一个黑箱,然后让它自己训练,而他甚至对这个领域一无所知。在那里,他对面是李飞飞,而Yann LeCun坐在房间里面,正站起来准备回答问题。(李飞飞是计算机教授,斯坦福SAIL 实验室的负责人。Yann LeCun现在是Facebook FAIR 实验室的负责人,同时也是神经网络的奠基人之一。)

计算机视觉领域的人试图反驳 “这样做是不行的,物体识别不能用这种方式来做……” 这些技术最终都落地了,这大概是因为它们默默的发展了十年然后厚积薄发吧。

很多人想探究这类方法取得这么好结果的深层原因。

深度学习可以看作一个黑箱,它有很深的结构,一亿个参数。它通过大量的数据进行训练,然后震惊了整个计算机视觉领域。“如果输入的图片有一些扰动,你的模型还能给出一样的结果吗?”,有人问。

Alex 自己也无法回答这个问题。还是 LeCun 作出了回答:“这个模型能处理这个问题,是因为……”。LeCun 非常高兴,李飞飞问他“Yann,这个模型和你在80年代发明的模型有根本上的不同吗”,Yann 回答说:“不,它们完全一样,并且它赢得了所有的比赛。”

Yan LeCun强推的AI简史:两大流派世纪之争,神经网络华丽回归

深度学习在图像分类任务的成功改变了其相关技术在科学社区长期边缘化的境况。在这个令人吃惊的结果后面,是对这个新方法有效性的质疑,对传统方法未来的担忧,对这个新闯入者理论知识缺乏的嘲笑,对新方法带来的改变的疑惑……自2010年以来,神经网络对计算机领域产生了深刻的影响,比如说:信号处理,语音处理,自然语言处理。这个新的方法可以直接把原始数据作为输入,而不需要人工提取特征。它还可以通过大量的数据来优化模型,产生令人瞩目的结果。图1 简单展示了这个转变:由假设演绎模型变成了归纳模型。

计算过程,程序,模型的规则,在旧的系统中需要人工设置,而在这个新的系统中它们则成了学习的目标。图1 就展示了这种转变。

符号主义 vs联结主义

神经网络在2012年的 ECCV 取得了巨大的成功,但它并不是什么新东西。利用强大的算力,以及大量的数据,现在已经可以满足控制论的一些要求。只是最近用于描述这些技术的术语是人工智能( AI )。

John McCarthy 于1956年提出了人工智能这一概念。目前在机器学习领域,尤其是深度学习领域,预测算法正在取得重大进展,但把这些技术归于人工智能并不严谨。在历史上,神经网络(以前叫联结主义)长时间被符号主义所鄙视。这两种方法之间的紧张关系在人工智能刚诞生并与控制论划清界限时就开始了。

符号主义的学派以认知主义为基础构成了AI的初步框架:认知就是通过对有意义的表示符号进行推导计算。然而,联结主义认为认知可以看作大规模并行计算, 这些计算在类似于人脑的神经网络中进行,这些神经元集体协作并相互作用(Andler,1992)。这两种思想下造出的“智能”机器区别是巨大的。

今天我们正在目睹科技史的一个伟大的逆转:之前在人工智能领域被边缘化的联结主义重新回归。就像Michael Jordan (2018) 讽刺的那样:“维纳提出的方法却披着McCarthy发明的术语的外衣”。维纳提出了控制论,我们现在使用的神经网络就可以看作控制论,而人工智能(AI)这个术语是 McCarthy 发明的。

为了讲清楚这些互相交叉的理论方法,首先我们可以根据 Web of Science(WoS)收集的出版物数据来进行统计。观察提到“人工智能”,“符号主义”,“联结主义”文章作者的共引网络就够了。

Yan LeCun强推的AI简史:两大流派世纪之争,神经网络华丽回归

我们可以在图2中看到我们将在本文中将提到的主要人物的名字,他们已经根据不同的科学社区进行了区分。在联结主义社区的中心是 Rumelhart, LeCun 和 Hinton。他们是深度学习的奠基者。他们周围也有很多其他研究人员 (Holland, Hopfield), 还有一些人为传统的机器学习方法作出了极大贡献,如 Breiman, Mitchell 和 Vapnik。在符号主义那边,核心人物如McCarthy, Minsky, Simon et Newell可以看作 AI 的创立者。他们周围也围绕着一群人,如 Dreyfus, Searle, Brooks,他们为认知模型、专家系统等等做出了重要贡献。

Yan LeCun强推的AI简史:两大流派世纪之争,神经网络华丽回归 图3

如果我们看从1935年到2005年出版的 AI 论文,联结主义和符号主义之间的斗争似乎更加直观。在图3中,我们看到了最初联结主义和控制论的诞生。然后,从20世纪60年代初开始,符号主义主导和定义了人工智能。最后,直到20世纪90年代中期,在人工智能的第二个寒冬之后,联结主义开始使用深度学习的名头在科学出版物中占据主导地位。

为了对人工智能系统有个整体的认识,我们引入三个词语,世界(monde),计算器(calculateur),以及视野(horizon)。这些词在不同的情况下有不同的含义:世界可以是:环境/输入/数据/知识数据,计算器可以是:计算/程序/模型/代理(agent),视野可以是:目标函数/结果/输出。

我们讲,这个预测系统安装了一个计算器来根据世界计算一个视野。在 AI 的历史中,世界,计算器,和视野的实体一直不停的变化。对这三部分的架构,研究人员还提出了种种截然不同的方式。AI 从符号主义转向联结主义并不是突然发生的结果,也不是说一种比另一种更有效。这个转变过程是不同方法和科学社区之间的重新组合与竞争。这也影响了计算技术,所需要处理的数据格式,目标,以及需要解决的问题 (Latour, 1987)。现在我们稍微总结一下这些概念:符号主义的研究人员尝试着人工设计计算器,世界,和视野。而联结主义的研究人员则相反,他们尝试把计算器清空了,让世界来自己得出它的视野。

控制论和最开始的联结主义

神经网络起源于早期的计算机以及控制论,虽然最开始它并不是叫这个名字,我们叫它联结主义。神经网络这个词由神经学家Warren McCulloch和逻辑学家Walter Pitts在 1943 年提出,最初含义是指给人脑的神经网络进行数学建模。那篇文章一直被深度学习的文章引用至今,甚至可以看作联结主义的起源。

从图3我们可以清楚的看到,在控制论的早期阶段,联结主义一直占据着主导地位。那篇文章所描述的是:神经元接受不同的输入,然后会计算出一个加权和。如果这个加权和超过一个阈值,会激发这个神经元。当时这个概念并没有和人工智能联系起来,“人工智能”这个词语还不存在。直到1949年神经学家 Donald O. Hebb 才把神经网络和机器学习联系起来。他发现神经元之间通过突触信息被激活可以看作一个学习过程。受此影响,神经网络模型变成了控制论的一个重点,并成了第一台“智能”机器的计算器的核心 (Dupuy, 2005)。

世界和计算器之间的耦合

Yan LeCun强推的AI简史:两大流派世纪之争,神经网络华丽回归

这类系统的特点在于它们与环境(世界)之间紧密耦合,以至于没有必要为它们的计算器配备特别的部分。控制论提议直接弄一个简单的黑箱,将这个黑箱的学习与视野联系起来,通过测量世界和机器行为的误差来调节黑箱里的参数。这种机器智能行为主要基于信息,而不同于人工智能诞生时用的符号主义(Triclot,2008)。这个信息所指的是编码之前的信号。根据 Shannon 的信息论,信息被视为一种纯粹的形式,它表示 “事物中的有序程度或结构”(Triclot,2008)。

然后,控制论将其计算的视野定义为对世界的输入和输出的比较。在Norbert Wiener的防空导弹制导系统里,预测装置的训练过程就是通过比较目标有效轨迹与上一步的预测轨迹之间的区别,然后不断更新系统。

这个设备可以根据给定的数据对计算器进行更新,然后收敛到最佳的结果。负反馈系统(将输出误差变为自适应系统的新的输入)就变成了控制论的主要部分。这也参考了当时的行为心理学(Skinner,1971),参考了生物器官的一些行为,机器可以根据环境信号来进行自适应,而不需要在内部给它设置一些规则,总之智能需要有自我学习能力。

Arturo Rosenblueth,Norbert Wiener和Julian Bigelow 在 1943 年定义了控制论的基本原理,他们想象一个能够自我纠错的机器,通过概率的方法根据目标以及所犯的错误对结果进行修正,这就是一个自适应的过程。以严格的“消除主义”思想,控制论里的系统可以没有意图,计划,或推理的概念(Galison,1994)。

Ross Ashby (1956, p. 110) 把系统的计算器部分描述是一个黑箱,控制论里的预测系统的配置与世界和计算器紧密相关,它的视野是系统对自己的自适应优化。 20世纪50年代的控制论系统(Homeostat,Adaline等)由于算力限制,只能算是实验室里的一个玩具,但现在随着算力的提高以及更多的数据,深度学习可以更有效地配置训练这个黑箱。

感知机和联结主义系统

McCulloch和Pitts提出的神经网络给计算机视觉领域提供了一种特别适合的解决方案,用计算机配备这些原始的自适应机器。在20世纪50年代后期,神经网络经历了一次重大的发展,进入了一个类脑机器计划。

联结主义受到了很多其它工作的启发,包括 Bernard Widrow 的 Adaline,斯坦福大学 Charles Rosen 的 Shakey,   Pandemonium, Oliver Selfridge 的混合系统 (1960)。康奈尔大学的心理学家和计算机学家 Frank Rosenblatt 提出的感知机可以算是一个真正的联结主义系统,并且成为了计算器产生智能行为的标志。这种用于图像识别的系统受到了很多关注,并从美国海军(ONR)获得了大量资金。 

Frank Rosenblatt 设计的机器受 McCulloch 和 Pitts 提出的神经网络的启发,同时增加了学习机制。在感知机叠加的各层中,输入神经元模拟视网膜活动,输出神经元对系统识别的“特征”进行分类,只有中间的隐藏层才能学习。

与 McCulloch 和 Pitts 提出的“下行”组织不同,Frank Rosenblatt 提出采用自下而上的方法,用学习机制统计学习网络结构。在软件实现感知机之后,Frank Rosenblatt 将开始构建硬件版本的感知机:Mark I,它将400个用光电设备组成神经元。 突触权重由电位计编码,并且学习期间的权重变化由电动机执行。由于当时的技术限制,这类物理实现的感知机还是很罕见的。并且,由于人工智能另一个分支, 符号主义的发展,这部分研究趋于停滞。

符号主义

Dartmouth, John McCarthy 和Marvin Minsky在1956年达特茅斯举行的会议中提出了人工智能(AI) 这个词语,用来反对早期控制论里的联结主义(Dupuy, 2005)。他们觉得机器根据输入和输出进行自适应调整是不够的, “符号主义”人工智能的目标是把人工定义的程序算法和规则放入计算机系统中,这样可以从更高一级来操纵系统。所以AI诞生之初对联结主义的一些观点是排斥的。如图3所示,符号主义从19世纪60年代中期到90年代初,一直在人工智能领域占主导地位。

符号主义的最初工作由 Herbert Simon 和 Allen Newell 在19世纪50年代推动。1956年,他们写了第一个人工智能程序LogicTheorist ,让机器来模拟做决策的过程。这个程序完成的任务也经常被人工智能的研究人员使用。他们宣布: “这个圣诞节我们发明了一个有思维的机器”。从1956年到70年代初,推理模型都是早期AI的核心。这个领域的研究迅速被一小部分机构和人给统治:MIT (Minsky, Papert), Carnegie Mellon (Simon, Newell) 和 Stanford University (McCarthy)。

尽管这个研究圈子内部有一些分歧,但是他们几乎垄断了 AI 研究的一切,包括资金以及大型计算机的使用权。从1964 到 1974,ARPA和空军用于研究人工智能75%的资金都被他们拿走了。他们的项目也争取到了当时为数不多的算力资源。在ARPA,受益于 Joseph Licklider的坚定支持,符号主义项目获得了科研资金,同时也可以通过在军事系统上的应用来验证系统的合理性。在19世纪60年代初,继承自控制论的联结主义方法由于 Frank Rosenblatt 提出的感知机产生了一股热潮。尽管还是一名学生,他开发出了一个神经网络系统 Snarc(1951)。

Marvin Minsky说符号主义所领导的具有优美数学的AI正面临着“神秘”,“被浪漫主义气氛包围”的自组织系统和联结主义的挑战 (Minsky et Papert, 1969)。通过对单层感知机的分析,他和 Simon Papert 证明了神经网络不能实现异或(XOR)操作,所以觉得它们是没有未来的。正如 Mikel Olazaran (1996) 所介绍的,Minsky 和 Papert 的策略是通过流行的符号主义来对人工智能进行定义。即使这本书的造成的影响可能并不是作者的本意,其后果也将是不可改变的:在1971年 Frank Rosenblatt 英年早逝之后,神经网络被抛弃,相关项目的资金资助被停止,神经网络离开了人工智能领域。

对符号进行操作的空间

符号主义的机器的主要特征是打破了与世界的耦合,并赋予了计算器一个自主的推理空间。在这个完全对计算器开放的编程空间里可对符号进行操作。

20世纪50年代建立的冯·诺伊曼架构,就是这样一个空间。设计于计算导弹弹道的ENIAC(1946)本想在硬件中给机器“编程”,但后来分离了软件和硬件,软件用执行基于符号的逻辑运算,而硬件是机器的物理结构 (von Neumann, 1945) 。

于是一个独立于硬件,专门用于程序的空间产生了。硬件变成“计算程序的中央化通用型自动机”(Goldstine,1972,pp.198-199),而编程,根据艾伦·图灵(2004,p.21),变成了“文书工作”。Paul Edwards(1996)表明,接近人类语言的高级编程语言的出现(再编译成0/1形式的机器语言)使分离物理机器和符号机器成为可能。人工智能从此可以说是关于机器的思想的科学。编程语言也是人工智能对计算机科学的最早贡献之一。

符号操作空间的出现与认知科学的出现 (1956) 有关。认知科学反对行为主义心理学极其控制论的“黑箱”概念,它的任务是赋予机器抽象和逻辑能力。认知科学也与联结主义不同,不关心生理学和人的行为,只关注推理。计算思想的理论,基于二元论,被构建出来:假设精神状态可以同时被物理地和符号地描述;物理式描述,如对信息的一系列物理性处理,符号式描述,包括符号操作,机械操作,比较,层次、推断 (Andler,2016) 。这一假说也称为“物理符号系统”,假设思想不能直接与世界交流,但世界在思想内部的表示和思想所为可以被嵌在程序中的符号描述和组织。

一个“玩具”世界

符号主义机器的世界只是一个舞台背景,机器把它的逻辑原则的语法投射到世界:国际象棋,跳棋游戏(Arthur Samuel),几何定理证明 (Herbert Gelertne),就像电子游戏的背景。 第一波人工智能的特点是发明了简化的空间,空间形式需要机器去认识和改动,例如Marvin Minsky的计算机环境Microscope (MAC) 或Terry Winograd的著名语言SHLURDU。 想象一个虚构的空间,只有几个房间几个物体,Shakey机器人在其中移动,一个“玩具空间”,其中的物体可以很容易地被联系到语法,语法经过计算会产生相应的系统行为。

如果计算器投射它自己的世界,这也是因为它企图把自己本身融入视野。正是在这个意义上,AI能够以“强者”的姿态回归,因为给予系统的目标是它自己的,可以从模型的逻辑推理中推导出来。巧妙的塑造系统语法的语言都是推论,它们把各种操作层层组织,每个操作都是对实体的基础变换,都是一次正确计算基础上的推论(Andler,1990,p100)。 如决策树,中间逻辑链,目标和子目标分解,中途/末尾分析(analyse moyen/fin) 。

合理的计算视野包含在程序的语法中。机器可以解决实际问题,找到正确的解,或做出适当的决策,而不需要给它正确答案(比如机器学习中的样本),因为规则可以通过遵循计算器的推理推导出来。推理原则的语法和被操纵对象的语义都内置在计算器中,可能会在正确的推理中彼此混淆,但也可以或多或少确定下来——以人工的代价:“智能”世界是由设计师实现的,受到监督,精准,明确,因此理性就是它的视野。是,在机房,这些机器能够达到一定的性能,但一旦向它们展现整个世界,它们很快就会变得盲目和愚蠢。

人工智能的第一个冬天

20世纪70年代早期,人工智能进入了它的第一个冬天,联结主义和符号主义的项目都将冻结。 两个流派都承诺得过多,而结果遥遥无期。联结主义一边,Frank Rosenblatt的感知机被过早公之于众。在《激动人心的智能机器》新闻中,纽约时报报道“电子计算机雏形出现,海军希望它能走,说,看,写,制造自己,甚至拥有自我意识”。

符号主义一边,以Herbert Simon和Marvin Minsky为首,不切实际的宣言很快被否定掉了。翻译俄语的翻译器、渗透进敌人战线的机器人,坦克和飞机驾驶员的语音指挥系统,宏图面对的现实是:“智能系统” 还只是机房里的游戏。1966年,国家研究委员会削减了机器翻译的预算,随后一系列撤回落到了对人工智能的财务和学术支持上:Minsky和Papert在麻省理工学院的micromonde项目,斯坦福大学的Shakey机器人, DARPA的SUR语音识别计划……英格兰,1973年,重要的Lighthill报告发表,劝说人们停止对AI的公共资助。

在资金危机频发的情况下,推理逻辑模型的项目奄奄一息,批评越来越多。 1965年,Rand委托哲学家Hubert Dreyfus撰写了一篇关于人工智能的报告,名为“炼金术和人工智能”,发表了一个有力的论证:“计算机不能做什么”(Dreyfus,1972) , 第一版就大获成功。Hubert Dreyfus对建造人工智能的争论迅速大大削弱了推理规则可以给机器“智能”的想法。 对逻辑规则的阐释完全忽视了知觉有身体的,位置的,隐性的,显性的,集体性的,语境的,也忽视了人类对行为的决策。

第一代“叛徒”出现,他们批评、质疑自己曾有的希望:Joseph Weizenbaum, 先驱Eliza,SHRDLU的设计者 Terry Winograd。“智能”机器与美妙的逻辑规则,确定性语法和理性的目标吻合,但这样的机器的世界并不存在。

人工智能第二波浪潮:专家的世界

然而,人工智能将在20世纪80年代迎来第二个春天,“专家系统”对符号主义机器架构进行了重大修订。

通过访问更强大的计算机,将更多信息输入计算机的内存,重生得以实现。 然后,“玩具”世界被专家的智识构成的“专业知识簿”取代。第二代AI与可以世界的外延相互作用,而世界的外延并非由 程序员 设计塑造:它现在由来自不同领域的专家的知识组成,这些知识转化为陈述性命题,用尽可能自然的语言表达 (Winograd,1972),以便用户可以通过提问来互动 (Goldstein,Papert,1977)。

根据Edward Feigenbaum为DENDRAL(第一个识别材料化学成分的专家系统)提出的术语,待计算世界的外延导致了符号主义机器的架构改变,分离了计算器构成的“推理引擎”和称为“生产系统”的一系列可能的世界。知识的数据库是一个可修改的“如果 ... 那么”型规则的列表(例如:“如果发热,那么[搜索感染]”),它们与推理引擎分离,推理引擎用于决定何时、如何应用规则。

规则的圣殿

早期僵化的计算主义想发明一个不切实际的抽象宇宙,受到诸多的批评。现在人工智能研究将从最高层开始,理解,抽象,然后完成一个概念系统,来操作这些新的知识库。然后,这个符号主义的项目以超过必要的建模,不完备的推理和启发式的算法,在专家的帮助下,更接近用户的世界。这种计算器编程的特征在于放松逻辑运算符(语法),而构建过密的表示知识的概念网络(语义)。借用关于思想模块性的讨论(Fodor,1983),计算器将推理过程分解为基本的模块,分解为交互的“代理(agent)”,这些“代理”可以自主地用不同方式使用知识和做出推断。因此,第二波符号主义人工智能的主要创新构思产生于知识库、知识库衍生出的有启发式意义的语义结构。

越来越多的输入知识和越来越复杂的概念网络推动了另一个转变:推理规则变得有条件,并且可以被概率化。对于John McCarthy的显式逻辑方法,Marvin Minsky和Samuel Papert在20世纪70年代坚持了另一个观点:正确/错误的二分法过于僵化。人们更倾向使用启发式的而非逻辑性的处理,因此真/假的分类不如有效/无效的分类。我们主要通过近似,简化和合理的直觉来走向真理,而这些直觉实际上是虚假的(Minsky et Papert, 1970, p. 41)。

在专家制定的数千条规则中,可能会发生这样的情况:从一个固定的前提(IF ...)出发,第二个命题(THEN ......)有一定概率为真。概率化使我们能够放宽人工智能早期确定性的推理形式,于是进入机器的知识变得更实际,更多样化,更矛盾,渗透进了更多概率(Nilsson,2010,p.475)。“有效/无效”代替了“真/假”,那么计算机的目标与其说是逻辑真理,不如说是对系统给出的答案的正确性,相关性或可能性的估计。但是,这种估计不再有计算机的规则的内在支持, 必须求助于外部的专家,由专家为机器学习提供示例和反例。

推断概率化逐渐渗透到AI领域,以执行程序员无法“手动”实现的任务(Carbonnell etc,1983)。在TomMitchell(1977)的工作之后,学习机制可总结为一种统计学方法:计算机自动生成假设空间内的最佳模型。学习机制“探索”计算器生成的各种假设模型,在逻辑推论上进行推理(概念简化,包含关系,反演推导),搜索合理的假设。进行推断性推理,消除候选假设的统计方法在此基础上成熟和发展,例如决策树(后来产生了随机森林)或贝叶斯网络(可以因果主义地定义变量之间的依赖关系)(Domingos, 2015)。然而,从20世纪90年代初开始,数据越来越多,却没有组织起来,不是被标记的变量,也不是相互依赖的概念,很快它们将失去可懂度。然后,我们将看到人工智能学习从“探索”向“优化”转变(Cornuéjols et al., 2018,p.22),这将使规则的圣殿崩溃。

要计算的数据的量和数据的现实意义不断增加,归纳机制转向了计算器内部。如果数据不再反映类别,变量之间的依赖关系,概念网络,那么,为了求得目标函数,归纳机制将基于优化标准得出正确的分布(Cornuéjols et al. , 2018, p. 22)。 待学习世界的构成转变,研究人员修改归纳的方法,并提出完全不同的机器架构。这种转变随着神经网络的发展加速,但转折点其实已藏于人工智能要学习的世界。 由于数据越来越“去符号化”,归纳机制构建模型时不再关注初始数据结构,而是优化因子 (Mazières, 2016)。计算的视野不再是计算器的内部,而是世界从外部给出的值 - 而且通常非常“人类”: 这个图像是否包含(或不包含)犀牛? 这个用户是否在这样的链接上点击(或不点击)?答案也就是优化的标准,必须将其输入计算器,才能发现贴切的“模型”。 因此新的机器学习方法(如SVM,神经网络)变得更加有效,但也变得难以理解,就如决策树的发明者LéoBreiman(2001)所指出。

由专家系统建设者建造的崇高圣殿没有实现承诺,它们太复杂,而且性能非常有限。原本充满活力的市场大幅崩溃,有前途的人工智能公司也破产了。20世纪80年代,计算成本的降低和计算能力的提高给了超级计算机新的机会,这些计算机曾被符号主义者搁置,那时符号主义者统治着各种大型IT项目 (Fleck, 1987, p. 153)。将人工智能限于符号主义的大学学术圈的控制力越来越弱,在语音合成,模式识别等领域,专家系统获得的成果很少。在20世纪90年代初,符号主义的AI非常弱,以至于这个术语几乎从研究中消失了。 完成无限长的显性规则目录,让机器懂得人类知觉、语言和推理的千万微妙之处,愈发成为一项不可能的,荒唐的,无效的任务(Collins, 1992 ; Dreyfus, 2007). 

深度学习的分布式表示

正是在这种背景下,20世纪60年代末开始流亡的联结主义方法在20世纪80年代和90年代回归和兴起,这个复兴时期,理论和算法都有巨大创造。1979年6月在La Jolla ,加州,Geoff Hinton和James Anderson组织召开了一个会议,会议上,一个聚集了生物学家、物理学家和计算机科学家的跨学科研究小组建议重新审视心理过程极具分布式和并行性的特点。

1986年,该小组以并行分布式处理(Parallel Distributed Processing,PDP)之名,出版了两卷成果。这一术语常用来洗脱联结主义的恶名 (Rumelhart et al. , 1986b)。 不同于计算机的序列式操作和符号主义的推理方法,PDP基于认知的微观结构,通过利用神经元隐喻的特点,绘制反模式:基本单元通过巨大的网络连接在一起; 知识不是统计性存储的,而是依靠各单元之间的连接;各单元通过0-1激活机制实现相互通信(<我们的系统中货币不是符号,而是激励和抑制>,p.132) ;这些激活一直并行进行,而非遵循一系列步骤; 信息流没有控制中心; 一个子路径不影响另一个子路径,但一个子系统会生成计算中需满足的约束,进而调整其他子系统的行为。

Yan LeCun强推的AI简史:两大流派世纪之争,神经网络华丽回归

由机器执行的操作类似于松弛操作,其中计算迭代地进行,直到取得某个满足大量弱约束的近似值 (< 系统安装出解决方案,而非计算出解决方案>,p.135)。由联结主义者的构思物生成了许多内部表示,这些表示可能是高层级的,但它们是“亚符号的”,统计的,分布式的 (Smolensky, 1988)。如上,联结主义方法并不简单,而是一种非常有野心的智能架构,可以颠覆认知计算。

“一开始,在20世纪50年代,像冯·诺伊曼和图灵这样的人不相信符号主义人工智能,Geoff Hinton解释,人脑更能给他们启发。不幸的是,他们都死得太年轻,他们的声音没有被听到。

在人工智能开始时,人们绝对相信我们所需要的智能的形式是一种符号主义的形式,不完全是逻辑的,但类似逻辑的东西:智能的本质是推理。现在的观点完全不同:思想只是表示神经元活动的大型向量。我相信那些认为思想可以用符号表示的人犯了一个大错。输入一串字符,输出一串字符,如此,字串成为显而易见的事物表现方式,于是他们认为两种状态之间必然有一个字串,或者类似字串的东西。我认为两者之间的关系与字串无关! 思想只不过是一些大型的,可以表示因果的向量。它们会产生其他大型向量,这和传统的AI的观点完全不同。 “

如果现在新一批的神经网络的使用者少些参考这种认知论,由于他们没有经历过长辈们禁受的排斥和嘲弄,他们将形成一个坚持不懈追求联结主义事业的团体。在输入和输出字串之间需要插入的,不是对思想的编程模型,而是基本单元构成的网络,可以根据输入输出调整参数的网络。 尽可能地,这个网络需要“独自完成一切”,这恰恰需要许多人工的技巧。

联结主义的算法重构

收到John Hopfield工作的启发,他提出通过赋予每个神经元独立更新其价值的能力来修订Perceptron模型,物理学家Terry Sejnowski和英国心理学家Geoff Hinton将在1980年代早期发展用于神经网络的新的多层架构(成为Boltzmann机器),设计者是Nettalk,一个具有三层神经元和18000个突触的系统,能够将文本转换为发声的句子。

但这次复兴的真正亮点是算法的设计,即随机梯度反向传播(《反向传播》),这使得计算系数权重成为可能。除了对Minsky和Papert(1969)的评论之外,作者还表示,当它提供多个层次时,可以简单地训练一个神经元网络;这些附加的神经元层可以用来学习非线性函数。该算法通过获取网络损失函数的导数并“传播”误差来修正基础网络(网络下层)的系数,在接近控制论机器的精神中,输出误差被“传播”到输入。

通过一种通用算法来优化所有类型的神经网络,20世纪80年代和90年代是一个非凡的创造性时期,它记录了联结主义的更新。最初成功之一的例子是Yann Lecun创造的,他对AT&T贝尔实验室(Lecun等人,1989)的邮政编码进行了识别,卷积技术就是AT&T贝尔实验室发明出来的。通过使用美国邮政服务数据库,他设法带动多层网络来识别包裹上的邮政编码。

他这种方法的成功,正在成为神经网络在银行业(支票金额)和邮政行业中首次广发的工业用途之一。然后遵循一系列建议来适应更多隐藏层,使地图链接(编码器)复杂化,使优化功能(RELU)多样化,在网络层中集成储存器(循环网络和LSTM),根据网络的无监督和监督学习(信念网络)等部分进行混合 (Kurenkov, 2015 )。用非常具有创意的方式,测试许多以不同方式布线神经元之间关系的架构来探索其属性。

“它不是很突出,但效率更高!”

虽然这些算法为当今深度学习的大多数方法提供了基础,但它们的发明并不是立即成功的。从1995年到2007年,机构支持变得非常罕见,论文在会议上被拒绝,取得的成果仍然有限。计算机视觉研究人员说:“他们经历了一次寒冬,实际上,在当时,没有人可以运行这些机器。世界上有五个实验室,他们知道,我们跑不了这些机器。” 围绕在杰夫·辛顿,亚·莱卡和约书亚·本焦周围的技术研究者们,形成了一个孤立却团结的小团体,他们主要是给加拿大高级研究所(CIFAR)提供支持。他们的处境变得比1992年的原始技术学习更加困难了,支持向量机(SVM) - 也被称为“核方法”,是非常有效的小数据集。已经处于人工智能禁令之下,联结主义者们发现自己已经处于人工智能学习社区的边缘。

“那时,如果你说你正在做一个神经元网络,你的论文就无法顺利通过。直到2010年,就像这样,一直存在。我记得,LeCun,我们作为被邀请的老师去了实验室,我们不得不全身心投入和他一起吃饭。没有人想去那里。我向你发誓这是很倒霉的事情。他哭了,因为他的论文被CVPR拒绝了,他的东西不够潮流,也不性感,所以大家会去看时髦的东西。他们需要掌握核心,SVM的事情。所以LeCun他说:“我有一个10层的神经网络,它们是并行的。” 他们对他说,“真的假的?你确定吗?有新东西吗?“因为当你提出一个神经网络,这次它有10层,但它没有比别机器的更好。这就很糟糕了!所以他说,“是的(新的),但没有足够的数据!”

在与神经网络的少数推动者相对立的指责中,一个个论证接连不断地被打翻。

“他们(那些SVM的支持者)总是说,”你的东西不是很突出,它只是一瞬间!“另一位研究员说。他们口中只有那个。我们提交了论文,然后他们说:“它不够突出不够优秀!” 他们都是数学很好的人,痴迷于优化,在他们的生活中从没有见过这个东西!多年来,我们都有接触。所以说,我们可以完全不用在意他们。”

由于其非线性构成,神经网络无法保证在损失函数的优化阶段,可以找到整体最小值;它可以很好地聚集到局部最小值。在2005 - 2008年,真正的政策是由一小群的“神经元的阴谋”的开始的(马科夫,2015年,第150页),为了说服机器学习社区,他们也是“<凸>炎症”流行病的患者(LeCun,2007)。所以在2007年,他们的论文被NIPS拒绝,他们组织了一个卫星会议,把与会者用汽车送到温哥华凯悦酒店,捍卫了由SVM最早提出的方法。Yann LeCun演讲说:“谁害怕非凸函数?” 通过研究了几个结果后得出,神经网络的表现要比SVM好,他认为,线性模型对理论要求的过于接近,无法想象创新的计算架构,并关注其他优化方法。当然,非常简单的随机梯度下降算法并不能保证可以收敛到整体的最小值,但是“当经验证据表明,如果你没有理论上的保证,它只是意味着该理论是不合适的……如果因此,你就不得不将凸性抛出窗外,那太好了! (LeCun,2017,11'19)。

“这些创意总是很疯狂”,这场争议的一位参与者评论道。“最初,对于这群人,这群有创意的人,这是一场骚动。然后直到那些不在人工智能圈子的人的到来。在优化方面,人们已经花了十年时间来寻找一种更巧的凸方法,来解决复杂的问题,但这是非常昂贵的(算力上)。这并不枯燥,但完全干涸了,这方面有成千上万的论文,当大量的数据到来时,所有的机器都不工作了!”

将世界转变为向量

因此,联结主义者将通过实验室的新数据流来选择最佳计算方法,从而改变关于凸性的科学争议。为了面对大数据,用于预测的机器的架构将被转变。这与传统的小型的校准的高度人工的数据集完全不同。因为,在此次争辩中,以大数据为依托,社会和网络服务的发展产生了一些新的工程问题,如垃圾邮件的检测,用于推荐的协同过滤技术,股票预测,信息搜索或社交网络分析。

在这个工业前提下,新的数据科学的统计方法借用并开发了机器学习技术(贝叶斯,决策树,随机森林等)。但是,很显然,面对数据的量和异质性特点,更准确说是“验证”技巧,有必要使用更多的“试探性”和归纳的方法(杜克,1962年)。因此,在与行业接触中(最初是AT&T,然后是谷歌,Facebook和百度),神经网络的阴谋者将遇到问题:计算能力和数据上的,这些问题给他们机会去展示他们的机器的潜力,并将他们的观点加诸科学争议。他们将引出一个新的判准:当这些预测适用于“真实”世界时,预测是有效的。

新联结主义者首先要求在争辩中加入自己的术语。他们解释说,有必要区别“浅层”架构(如SVM)的“宽度”与神经元分层架构的“深度”。他们可以证明深度优于宽度:当数据和尺寸增加时,只有深度是可计算的并且可以设法捕获数据特征的多样性。所有凸(函数),因为他们,SVM不能给出大型数据集一个好的结果:维数增长太快,并无法估量,不好的对预测产生了相当大扰动,非线性方法的线性化的解,导致系统失去学习复杂表征的能力(Bengio和LeCun,2007)。

联结主义者设法说服人们,最好是牺牲计算的可理解性,牺牲严格控制的优化,换取对新的数据的复杂性更好的感知。随着训练数据量的急剧增加,存在有许多局部最小值。在机器学习这种紧张争辩的核心中,一个潜台词是无所不在:它实验室里,模型才是线性的,世界,“真实世界”,由之产生的数据图像,声音,文字和文本的数字化,它是非线性的。它是嘈杂的,信息是冗余的,数据流没有被归类为齐次变量的属性,也并不清晰和易于构造,有些样本甚至是错误的。 

“一个AI”,Yoshua Bengio等人写道(2013年),“必须从根本上了解我们周围的世界,而我们认为,这是可以实现的。这就是为什么<深层>架构比<浅层>架构更容易计算和更具“表现力”的原因(Lecun和Bengio,2007)。降低可理解性,让计算器捕捉到更复杂的世界,关于凸性的争论表明,归纳性机器的产出绝不是凭天真的经验, 它是一个大量工作的结果, 有必要说服他们重新看待计算器和世界之间的关系。

此外,为了使这些数据能运用到科学争辩中,有必要从源头上增加科研数据集的大小。

在1988年关于字符识别的文章中,Yann LeCun使用了9,298个手写体的邮政编码。自2012年以来就被用在字符识别的数据库mnist包括了 60, 000个标记为黑白的图像, 每个28像素。它已经证明了神经网络的有效性,但比起其他技术,比如SVM,还是不能赢得支持。另外,科学界将利用互联网的优势,来产生更大的数据集和构建机器学习任务。这种系统的,广泛的,尽可能基础的数字数据捕获,让Hubert Dreyfus的格言更具意义,“世界上最好的模型就是世界本身” (dreyfus, 2007,  p1140)。正如人工智能的异端们长期倡导的那样,代表性存在于世界的数据中,而不是计算器的内部。(布鲁克斯,1988年)。

IMAGEnet的诞生,在这方面堪称典范。

该数据集用于文章最初提出的挑战,由LI Feifei最初建立(Deng et al,2009)。该数据库目前包括1400万个图像,其元素已被手动标注了21841个类,分类基于自动语言处理中另一个经典数据库Wordnet的层次结构。为了完成这项巨大的工作(鉴定各图像,图像的区别在于图中由人工绘制的方块),有必要通过Mechanical Turk, 将众多的任务交给成千上万的标注器。(su et al, 2012; jaton, 2017)。从9298 到1400万个数据,数据量和数据维度天翻地覆。同时伴随的还有计算器功耗的指数增长,这将由并行化计算和GPU的发展解决 (图 6)。

2009年, 显卡上实现了反向传播算法, 从而神经网络的速度提高了 70倍 (raina et al, 2009)。今天有 5 000个样本的分类学习很常见,但这很快就会变成几百万个样本的数据集。数据集的指数增长同样伴随着计算器架构的改变:网络中的神经元数量每2.4年翻一番(Goodfellow et al,2016,p27)。

但是,联结主义者还将采用另一种数据转换,通过执行称为“嵌入”的操作将它们粒化并将其转换为可计算的格式。神经网络要求计算器的输入采用向量的形式。因此,世界必须用纯数字向量的表示形式进行编码。某些对象 (如图像) 自然分解为向量, 而其他对象需要 "嵌入" 矢量空间, 然后才有可能通过神经网络进行计算或分类。这一技术的原型来自文本。为了将单词输入神经网络,word2vec技术 将单词"嵌入" 到一个向量空间中, 并测量它与语料库中其他单词的距离 (mikolov et al, 2013)。因此,这些词在数百维的空间中有了位置。

Yan LeCun强推的AI简史:两大流派世纪之争,神经网络华丽回归

这种表示的优点在于这种转换可提供许多操作。在这个空间中位置接近的两个词在语义上也是相似的,我们说这种表示是分布式的:“appartement”的向量[-0.2,0.3,-4.2,5.1 ...]会接近“home”[-0.2,0.3,-4.0,5.1 ...]。语义接近度不是从符号分类推导出来的,而是从文本材料的所有词的统计邻域推导出来的。因此,这些向量可以有利地替换它们所代表的单词以解决复杂的任务,例如文档的自动分类,翻译或自动摘要。因此,连接主义机器的设计者正在进行非常人工的操作,将数据转换到另一个系统。如果说语言处理首创性地将单词“嵌入”向量空间,那么今天我们正在目睹嵌入的全过程,该过程逐步扩展到所有应用程序领域:有了graph2vec,网络成为了向量空间中简单的点,paragraph2vec ——文本,movie2vec——电影,sense2vec——单词含义,mol2vec——分子结构,等等。用Yann LeCun的话说,联结主义机器设计者的目标是将世界变成一个向量(world2vec)。

从模型到架构

因此,必须从计算器中扣除现在由数据多样性和数据量带来的真实的波动。 因此,神经架构的设计者将在计算器中事先“有意”地插入明确的规则,以便预先识别,表征或聚合数据。

“这背后有一种力量,”该领域的一位研究人员说,“ 有一股浪潮,数据浪潮,一股巨大的带走一切的浪潮。 这完全打破了人类建模的所有思想潮流。 我在多个领域工作过,应用,语音,写作,文本,社交数据等,每次我都是做一样的事情。 人们曾有一个时期想将知识放进他的系统中,这种想法已被扫地出门。系统性的! 这已经持续了三十年,逐个领域。 就是这样。 你知道,这很有意思。 与那些一生都相信社会主义政权然后崩溃的人一样......这是同样的事情。”

从2000年代末开始,以一种非常不安定的心情,看到一种没有理论做依托的技术,将取代多年来耐心进行的建模工作,并连续地征服信号,声音,图像和自动翻译的社区。一个领域接着一个领域,神经网络的计算赢在转换到操作网络中的权重分布的效率,这是以前科学活动的主要焦点:特征工程和模式识别。这些技术包括“手动”编写算法以识别初始数据的特征。该提取过程通过简化特征与问题或目的之间的关系来促进学习。日益强大的自动化将允许统计机器学习技术获得计算器内部建模器的功能(见上文)。但神经网络正在激化这一运动,从特征提取过程转向所谓的端到端过程:从“原始”数字数据转向样本“标记”。

此举的一个示例是本文开头缩略图中使用的卷积原理。计算机视觉社区已经开发了非常精细的提取方法,以识别图像中的边缘,角落,对比度过渡和兴趣点,并将它们与词袋相关联。这些操作现在由给定的卷积网络的特定结构隐式支持: 将图像铺成小的像素切片, 这些像素被分配到分离的神经元片段, 然后再将它们在另一层组装。而不是建模一只犀牛, 或概括像素块的特点来预测犀牛的形状, 几千张犀牛照片在图像中移动, 身体的一部分被切断, 从角度和不同的位置。

相比不知道如何处理缩放,转换或旋转问题的预处理程序,这能更好地描绘概念 "犀牛" 对神经元的影响。数据与其特征的关系不是需要的, 而是获得的。神经网络做很好的提取特征, 边缘往往被第一层神经元"看到", 角落是另一个, 元素更复杂的形式在最后, 但这些操作, 没有被明确实施, 这是网络在体系结构约束下出现的效应。

因此,计算“参数”的预处理已转变为计算器的“超参数”的定义。人工建模的部分越少,归纳机器的结构就越复杂。完全连接的神经网络什么都不产生。因此有必要对其进行雕刻,以使其架构适应委托给它的学习任务:隐藏层数,每层神经元数,连接方式,激活函数选择,初始系数,目标函数的选择,向模型显示所有学习数据的次数等。这些设置可能会通过试错调整。

例如,剪枝(pruning),包括移除神经元以查看是否会改变网络的性能,丢弃(dropout), 在学习阶段, 不发送信号输入层中的一些神经元或随机隐藏的层, 以避免过拟合(overfitting) 。这些方法、技巧和工艺规定为社区的许多讨论提供了素材, 并保持了工艺的特征 (domingos, 2012年)。面对特征提取的数学改进,神经网络的生成因而可以被看作黑客的工作,看作一个有天赋的程序员练习黑魔法一般的技能的活动。

“他们,也就是那些与Hinton一起的人,采取了一些措施来完成所有功能的提取以获取原始图像。这很疯狂,因为它是重现的一件事,但是以探索的方式! 他们制造了一个难以想象的复杂系统,他们能够让它们发挥作用。 你从这些人那里拿论文来看,我很害怕,我太老了! 伙计们,他们跟你说话,好像他们是在编程。 他们没有用对我有意义的三个方程进行描述。

但在5行里,他们会向你描述一个超复杂的东西。 所以,这意味着他创建了一个架构,在这个架构中,他将100个元素彼此放在一起,并且每个元素要连接它们,你有十种可能的选择。 他和它游戏,发动它。 这是一个黑客,这是一个黑客的工作!”

因此,超参数是一个可解释性的新要求可以活动的地方。这些数据不是“自己说话”,而是受制于无法从数据中学习的架构,现在集中了大部分的AI研究。在NIPS会议上,有一篇值得注意的论文,它提出了一个新架构,就像对行星命名一样,研究人员进行了系统地命名,就像一群好奇的动物。通过从模型转向架构,有了表达研究人员创造性的地方,创造性也是他们的设计所需要的技能和品质。

这还为新的数据科学家,黑客和程序员提供开放且易于操作的工具,以进入以前非常封闭的AI生产者领域。通过改变预测机器的架构,联结主义者推动了人工智能的社交世界:首先,因为“真实的”数据集,特别是来自数字行业的数据,已经(部分)取代了学术实验室的“玩具”数据集,还因为,生产联结主义机器所需的专业知识是软件开发的技能,但不是前几代AI需要的开发技能。

归纳的工作

智能机器的发展轨迹刚刚相继在四个背景中进行了总结,显示了它们架构的深刻变革。 这些设备的世界,计算器和视野都经过了深刻的改造,这些组件之间的联系正在塑造那些提供与智能,推理和预测明显不同的定义的设备。

Yan LeCun强推的AI简史:两大流派世纪之争,神经网络华丽回归

Yan LeCun强推的AI简史:两大流派世纪之争,神经网络华丽回归

然而,整体动态出现在这个动荡历史中。 计算并制造心灵的唯物主义项目今天已经走上了坚定的联结主义道路。 目前成功的归纳机器只不过是一个术语或已找到的一个“解决方案”。 尽管他们的能力很强,但深度学习技术远远不能满足一般人工智能项目的要求,就像“符号主义者”一直以来的指责。 但是在本文叙述的轨迹中特别指出, 如果不做大量雄心勃勃的工作来改变两者之间的平衡, 这种预测性演算的归纳重组就无法实现。

在计算器的输入上,首先,世界的构成经历了原子化和颗粒化的深刻运动。数据封装组成的关系,全局样式等的许多规律,它们必须由计算器,而不是程序员来识别,因此,归纳工作的第一个特征是以尽可能最基本的形式将数据引入系统数据:像素,而非形式;频率,而非音素;字母,而非字;点击,而非用户声明;行为,而非类别......(Cardon,2017)。数据是否是异质的,冗余的,常常不正确的,这些都不再是问题,每一个新的信号都可以作为构成联结主义机器世界输入的矩阵的新列被添加。

这一整体变动的第二个特征是计算器活动的先验模型的消失(这种现象通常被描述为“理论的终结”(Anderson,2008)),有利于模型的概率在假设空间中越来越大,当考虑到数据的变化维度时,模型的更激进的分布散布在神经元网络的多个层。这是早期人工智能的巨大野心,用于模拟推理,同时为计算机科学研究做出重大贡献。

联结主义机器已经将人工智能的挑战从解决抽象问题、正统认知科学的目标,转变为大量敏感信号中的特征归纳。归纳生成工作的第二个特点是实现了颠覆AI计算系统的条件,以输出程序而不是输入程序。尽管如此,神经网络并没有使“理论”消失。他们只是将其转向计算器架构的超参数,同时让“理论”这一概念少了一些“符号主义”的含义。

这一问题使预测过程的理解和可解释性上的挑战尤其敏感 (burrel, 2016;cardon, 2015)。由于许多工作需要在复杂的系统上完成,毫无疑问, 我们必须学会使可感知的, 适当的和可疑的形式的建模具有更多的属性 (线性,可读性、完整性、经济性等)。在这些属性中,我们使用了——非常 "符号主义" 的——社会科学中模型的<可理解性>的概念。

第三个变动与计算器的视野有关。符号主义AI设计出的智能机器给予了理性和逻辑的预期目标 – 内植于计算的理性,这让AI的推动者认为,机器是“自主的”在联结主义模型中,计算的视野不属于计算器,而是属于给了它有标注样本的世界。输出,由人类产生,符号化和加入了偏差的输出,这些输出组成了联结主义机器最有价值的数据之一。归纳产生工作的第三个特点是通过更新控制论机器反射的自适应预期来建立对世界本身的预测性能: 系统与环境一起计算安装新型的反馈循环。总而言之,面对这些越来越具创新的新机器,我们还不够富有想象力。

相关报道: https://neurovenge.antonomase.fr/RevancheNeurones_Reseaux.pdf


以上所述就是小编给大家介绍的《Yan LeCun强推的AI简史:两大流派世纪之争,神经网络华丽回归》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

代码本色:用编程模拟自然系统

代码本色:用编程模拟自然系统

Daniel Shiffman / 周晗彬 / 人民邮电出版社 / 2014-10 / 99.00元

本书介绍了用计算机模拟自然系统涉及的编程策略与技术,涵盖了基本的数学和物理概念,以及可视化地展示模拟结果所需的高级算法。读者将从构建基本的物理引擎开始,一步一步地学习如何创建智能移动的物体和复杂的系统,为进一步探索生成设计奠定基础。相关的知识点包括力、三角、分形、细胞自动机、自组织和遗传算法。本书的示例使用基于Java的开源语言及开发环境Processing编写。本书网站http://www.na......一起来看看 《代码本色:用编程模拟自然系统》 这本书的介绍吧!

RGB转16进制工具
RGB转16进制工具

RGB HEX 互转工具

在线进制转换器
在线进制转换器

各进制数互转换器

RGB HSV 转换
RGB HSV 转换

RGB HSV 互转工具