AI时代论剑,芯片是核心,中国能否弯道超车?

栏目: 编程工具 · 发布时间: 7年前

内容简介:AI时代论剑,芯片是核心,中国能否弯道超车?

AI时代论剑,芯片是核心,中国能否弯道超车?

随着AI产业快速突破,各大公司在AI领域的人才动向也在引起极大关注,你来我往、归去来兮,AI江湖上大有一片血雨腥风之势。当然,AI领军人物的变动,会对具体公司业务造成影响。但从整个行业来看, 人才流动的频繁,反倒有可能促进产业的整体进程。

不信你翻翻历史。AI这门功夫自1956年问世以来,至今已经历60年风风雨雨,一直是流派众多,难学难练,没有大成。 难学,是因为必须要掌握一种叫做“算法”的神功;难练,是因为需要有足够算力,能够处理数据样本,训练机器。

几十年来,一直是有算法没算力,甚至于有人认为,人工智能就是一个科幻,就是小说家跟人类开的一个玩笑而已。谁也没想到,进入21世纪后算力大爆炸。引发了整个AI产业开天辟地般的变化。

其中, 算法上升为天——深度学习,分成DBN,CNN,BP,RBM等等诸多分支 ,其中佼佼者当属CNN(convolutional neural networks),人称卷积神经网络,应用广泛。 算力,下降为地——AI芯片 各种芯片如雨后春笋涌现,拿过来训练机器,得心应手啊。

庙堂之上也为AI驾临人间雀跃不已。世界各国意识到人工智能的重要性,纷纷箪食壶浆,以迎AI。

联合国于2016年发布告示,召集人类讨论机器人的制造和使用如何促进人工智能的进步,以及可能带来的社会与伦理问题。

美国政府于2016年连续颁发三道金牌:《美国国家人工智能研发战略计划》、《为人工智能的未来做好准备》、《人工智能、自动化与经济报告》,宣称加入人工智能教派,并且描绘了此举能带来的种种美好的前景。

英国政府见此立即照方抓药,刊发了《机器人技术和人工智能》报告,详细的阐述英国的机器人技术与AI的亲密关系。

有算法有算力,天地已定。有政策有战略,和风细雨。正是产业萌芽,草长莺飞,欣欣向荣的时刻。人才的流动正是产业加速的信号。

书归正传。 芯片定义了产业链和生态圈的基础计算架构,正如CPU是IT产业的核心一样,芯片也是人工智能产业的核心。

话说天下AI芯片共分四大流派:

GPU ,目前锐气正盛,恰似东邪,凭借并行计算形成先发优势。

FPGA ,蛰伏北方,正在暗地里合纵连横,大有号令群雄的势头,恰似丐帮。

ASIC ,割据南方,占领了大片市场,参与的公司林立。

类脑芯片,这个更“邪性”,打算直接复制大脑,也暗藏着问鼎中原的野心。

根据互联网公开发布信息,今年,四大流派已经派出几十路高手,参与华山论剑,这些高手均属于芯片设计期高手。 这些高手都有什么特点?谁能逐鹿中原? 下文一一分析。

一、GPU一派

市场上名气最大的应该是GPU一派。GPU,也称视觉处理器,专门用于图像及相关处理的芯片。

2012年,Alex Krizhevsky,多伦多大学的博士研究生,凭此在ImageNet大赛上夺下了2012届的冠军。Alex提出了一个奇妙的模型,仅凭借两个GPU就取得了训练深层神经网络的极佳效果。江湖顿时为之轰动,于是引发了GPU训练神经网络的风潮。要知道,AI领域过去曾用CPU处理数据,但CPU效力太低。

当年,谷歌曾经花费巨资购买1.6万个处理器,堆成谷歌大脑,峰值功耗在10万瓦以上,占地面积数十平方米。试问天下,有几人能玩的起1.6万个处理器?

随着AlexNet的划时代论文横空出世,于是GPU在服务器端横扫天下。 有人会问, CPU和GPU,都是处理器,两者有什么不同?

与CPU相比,GPU出现得远比CPU晚,但 并行计算能力能却常令CPU望尘莫及。 并行计算是相对于串行计算来说的。要知道,自计算机诞生以来,电脑编程几乎一直都是串行计算,绝大多数的程序只存在一个进程或线程,好比一个人只能先吃饭再看聊天。

但更多人喜欢边吃饭边聊天怎么办?遇到这类问题,串行计算就傻眼了。并行计算一次可执行多个指令的算法,能够完美解决吃饭聊天难题。解决方式可分为时间上的并行和空间上的并行。时间上的并行就是指流水线技术,而空间上的并行则是指用众多个处理器并发的执行计算。

深度学习所依赖的是神经系统网络,通常网络越深,需要的训练时间越长。对于一些网络结构来说,如果使用串行的X86处理器来训练的话,可能需要几个月、甚至几年,因此必须要使用并行甚至是异构并行的方法,才有可能让训练时间变得可以接受。

在当前的人工智能芯片领域,GPU的应用领域不容小觑,据Jon Peddie Research(简称JPR)市场调研公司统计,在2008至2015年期间,除了2008年GPU市场规模稍有下降,其余年份全球独立显卡的出货量和销售额都呈现出明显的上升趋势,并且在2012至2015年有加速上升的表现。

GPU领域只有两大公司,一是英伟达,占市场份额约7成,另一位则是万年老二AMD,占市场份额约3成。

从GPU用户数量来看,根据英伟达2016年的财务报告,相比2013年的100家,2014年的1549家,2015年已有3409家机构或企业使用英伟达的GPU产品,从事人工智能的研究。这些企业和机构包括各大高等院校的人工智能实验室,互联网企业,军事企业等。

AMD虽然落后于英伟达,但2016年的市场份额已呈现出上升趋势,在发布了代号Vega织女星的GPU芯片,市场一片叫好,未来可能有继续上升的趋势。

不足的是,GPU的很费电(比如高端显卡动辄200W+),一旦开启,散热就成了麻烦事。

二、FPGA一帮

GPU美中不足的是就是太贵了,太贵了,而且有副作用,降温是大个问题。怎么办? 赛灵思等公司改进了FPGA许多技术,使之价格便宜功耗又很低,操练起来更有趣。于是,跟随FPGA的越来越多,形成了一大流派。

FPGA是从哪里来的呢?

原来早在1984年赛灵思就发布世界上首款FPGA,当时的FPGA晶片尺寸很大,但成本却不低。1992年后,FPGA因采用新工艺节点,第一次出现了在FPGA上实现卷积神经网络。但直到2000年后,FPGA丹法结合了“易容术”后才略有小成,易容术是指FPGA已不仅是门阵列,还是集成有可编程逻辑的复杂功能集。2008以来,FPGA不光可以越来越多地整合系统模块,集成重要的控制功能,还可以使用更高效的系统编程语言,如OpenCL和C语言,通过类似软件的流程来编程,降低了硬件编程的难度。于是,自2011年开始,出现了大规模基于FPGA的算法研究。

简单来说,FPGA全称“现场可编程门阵列”(Field Programmable GateArray),其基本原理是在FPGA芯片内集成大量的数字电路基本门电路以及存储器,而用户可以通过更新FPGA配置文件,来定义这些门电路以及存储器之间的连线。

这里提及的“可编程”,完全就是“可变成”。这意味着你今天可以把FPGA配置成一个微控制器MCU,明天就可以更新配置文件把同一个FPGA配置成一个音频编解码器。你是不是想起了孙悟空七十二变,今天是个老头明天是个少女?此乃易容术也。

不同于GPU的运行原理,FPGA是以门电路直接运算的,即编程中的语言在执行时会被翻译成电路,优势是运算速度快。

在很多领域FPGA的性能表现优异,以至于有人说FPGA可能会取代CPU和GPU成为将来机器人研发领域的主要芯片。 当然,这事有点夸张。目前来看FPGA也多作为CPU的协处理器而出现,冲击GPU是显而易见的,但要说取代CPU,还得等等。

目前,国内有许多创业企业,自动加入FPGA阵营,提供基于FPGA的解决方案。比如源于清华大学的深鉴科技,专注于深度学习处理器与编译器技术,深鉴科技研发了一种名为“深度压缩”的技术,它不仅可以将神经网络压缩数十倍而不影响准确度,还可以使用“片上存储”来存储深度学习算法模型,减少内存读取,大幅度减少功耗。

FPGA流派的厂商有两大两小,两大分别是赛灵思、Altera(英特尔于2015年以167亿美元收购Altera),两小是Lattice和Microsemi。

其中,赛灵思和Altera占据了近90%的市场份额,两人旗下的专利超过6000项。而剩下约10%的市场份额,由Microsemi和Lattice瓜分,这两位的专利也有3000余项。由此可以看出,极高的技术门槛将其它希望进入FPGA市场的厂商牢牢挡在门外。

FPGA也有两大局限性。

第一,FPGA的峰值性能不如GPU。即便使用高端的服务器做FPGA编译都会需要数分钟的时间,放到移动端速度还会更慢。但FPGA的功耗低于GPU,若FPGA的架构和配置合理,从能耗比的角度上来看,则能超过GPU。

第二,FPGA的编程难度较高。编程人员需要同时精通软件和硬件两种编程语言,更适合于高段位的的资深技术玩家。FPGA芯片主要面向企业客户,如百度、微软、IBM 等公司都有专门做FPGA的团队为服务器加速。

就未来发展来看,FPGA的崛起指日可待。理由有三个:

首先,在人工智能起步阶段,算法大致每三个月迭代一次,单凭这一点来说, FPGA可以灵活调整电路配置以适应新的算法 ,具有一定优势;

其次,相比于GPU, FPGA更适用于深度学习的应用阶段

最后,为了降低FPGA的编程难度, FPGA厂商赛灵思专门研发了可重配置加速栈堆,提供基于FPGA的硬件加速方案 ,这类似于一个App Store,赛灵思是一个平台,用户使用时直接从商店里挑选方案,不需要再自己设计布局布线了。

三、ASIC:由吸星大法突破

虽然GPU在并行计算方面有不少优势,但毕竟不是为机器学习专门设计的, FPGA则是需要用户自主编程,主要面向专业领域的企业用户,门槛太高。

大众消费领域怎办?如应用到无人驾驶汽车上或是智能家居终端,这款芯片还要同时满足高性能和低功耗的要求,甚至不需要将数据传回服务器端,不必连入互联网,本地即时计算即可。

AI时代论剑,芯片是核心,中国能否弯道超车?

ASIC挺身而出。

ASIC的全称是专用集成电路( Application-Specific Integrated Circuit )。

玩过比特币的都知道著名的挖矿大战。 ASIC在比特币挖矿领域,展现出了得天独厚的优势。 2013年1月Avalon项目团队交付了世界上第一台商用比特币ASIC矿机,轰动了挖矿世界。CPU、GPU矿机几乎在一夜之间消失的无影无踪,引发了比特币挖矿行业第二次重大升级,比特币网络核心开发者Jeff Garzik有幸成为了第一个商业ASIC矿机的拥有者,据说当时收到Avalon矿机的用户在一两天内就回了本。而传说中隐藏在农村的土豪,能动用的ASIC矿机达到了数千台。

人工智能深度学习和比特币挖矿有类似之处,都是依赖于底层的芯片进行大规模的并行计算。

ASIC分为全定制和半定制。全定制设计需要设计者完成所有电路的设计,因此需要大量人力物力,灵活性好但开发周期长,上市速度慢。专为机器学习设计的ASIC芯片,从设计到制造,对资金和技术的要求都更高。一般来说,基于FPGA的开发周期大约为六个月,而相同规格的ASIC则需要一年左右,需要经过多步验证,可想而知,在这样精细的打磨下,其性能自然也更为出色。

ASIC的开发时间长,意味着 ASIC芯片很有可能赶不上市场变化的速度 ,致使厂商陷入竹篮打水一场空的尴尬境地。 有没有办法改进呢?

有。 既然一家公司设计ASIC要花费太花时间,何不用别人现成的模块呢? 于是 SoC+IP模式开始流行 。这种模式有点像吸星大法。

SoC全称是“片上系统(System-on-chip)”,亦即吸纳了许多不同模块的芯片。SoC上面的每一个模块都可以称为IP,这些IP既可以是自己设计的,也可以是购买其他公司的设计并整合到自己的芯片上。

相比ASIC, SoC+IP模式的上市时间短,成本较低,并且IP可以更灵活地满足用户需求。IP公司专注于IP模块的设计,SoC公司则专注于芯片集成,分工合作,提高效率。

事实上,高通已经在研发能在本地完成深度学习的移动设备芯片,IP设计公司如CEVA和Kneron也在研发与人工智能相关的IP核,这种模式未来也是人工智能芯片的发展方向之一。

ASIC易学难练,要想大成,靡费巨资。因此玩ASIC的不乏豪门贵族。例如,谷歌于2016年推出可编程AI加速器TPU,英特尔也将于2017年推出专为深度学习设计的芯片Knights Mill。微软打造Project Catapult支持微软Bing。

从初创公司来看,美国的Wave Computing公司专注于深度学习芯片架构,推出DPU(Dataflow Processing Unit);英国的Graphcore公司将推出开源软件框架Poplar和智能处理单元IPU。

相比于科技巨头,初创企业更有可能结合具体应用场景设计芯片,如地平线机器人设计的第一代BPU(Brain Processing Unit),被用于开发ADAS系统。

中科院计算所从2008年开始研究,项目名为寒武纪,主要经费来源是中科院先导专项和国家自然科学基金,负责人是陈氏兄弟,陈云霁和陈天石。目前,寒武纪系列已包含三种原型处理器结构:寒武纪1号(英文名DianNao,面向神经网络的原型处理器结构);寒武纪2号(英文名DaDianNao,面向大规模神经网络);寒武纪3号(英文名PuDianNao,面向多种机器学习算法)。

四、类脑芯片:复制另一个人脑

类脑芯片不得不提IBM,每次产业变迁,IBN总要给大家带来一些新鲜名词热闹一番。比如电子商务、智慧星球,认知计算,现在又带来了号称要复制人脑的类脑芯片,科技真真太黑了。

IBM类脑芯片的后台支持者是美国国防部先进研究项目局(DARPA),DARPA是可谓科技圈的泰山北斗,大名鼎鼎的Internet前身阿帕网即源于这个机构。

DARPA与IBM合作建立了一个项目,名为“神经形态自适应伸缩可塑电子系统计划(SyNAPSE)”。该计划意图还原大脑的计算功能,从而制造出一种能够模拟人类的感觉,理解,行动与交流的能力的系统,用途非常明确:辅助士兵在战场动态复杂环境中的认知能力,用于无人武器的自动作战。

该项目中最引人注目的是类脑芯片TureNorth。2011年,IBM发布第一代TrueNorth芯片,它可以像大脑一样具有学习和信息处理能力,具有大规模并行计算能力。2014年,IBM发布第二代TrueNorth芯片,性能大幅提升,功耗却只有70毫瓦,神经元数量由256个增加到100万个,可编程突触由262144个增加到2.56亿个。高通也发布了Zeroth认知计算平台,它可以融入到高通Snapdragon处理器芯片中,以协处理方式提升系统认知计算性能,实际应用于终端设备上。

“正北”问世,激起了国内研究机构对人工智能的的热情。

上海的西井科技去年发布了全球首块5000万神经元类脑芯片。该公司宣称,这是目前世界上含有神经元数量最多的类脑芯片,也是首块可商用化类脑芯片。

去年6月,中星微宣布中国首款嵌入式神经网络处理器(NPU)芯片诞生,并已于实现量产,主要应用于嵌入式视频监控领域。

据说北京大学则研究另外一种路线——忆阻器。据媒体报道,北京大学在视听感知和图橡视频编码方面的研究处于国际领先水平,在利用神经形态芯片构造大规模神经网络方面,已经围绕视皮层模拟开展研究。

中科院陈云霁认为, 总体上看,国内和IBM的TrueNorth芯片为代表的国际先进水平还存在一定的差距。 这个差距不体现在单芯片绝对的运算速度上( 事实上,国产类脑芯片每秒能进行的神经元运算和突触运算数量比TBM的TrueNorth还要高十倍 ),而是在功耗上。TrueNorth芯片功耗仅为65毫瓦,比国内芯片( 15瓦左右 )要低250倍。

从芯片性能角度来看,如今类脑芯片的算力和精度都不能超过GPU和FPGA的最好水平,因此类脑芯片是人工智能芯片几大方向中最小众的一类。

类脑芯片未来能否超越其它门派?这有赖于人类是否能完全搞清楚人脑的结构,能否有更多理论和实验支撑类脑芯片技术上的突破。就眼下来看,类脑芯片在商业化的道路上还需要探索一段时间。

五、华山论剑,中国能否弯道超车?

AI芯片是人工智能产业的演武场。

产业刚刚萌芽,东邪西毒南帝北丐均在赶往华山的路上,似乎大家都有当大英雄的机会。但是,如果从国别的角度来看,会发现一个残酷的现象。残酷,是因为中美两国存在着相当差距。比赛刚刚开始,美国就赢了。

在一些知名的芯片厂商中,美国有13家公司中,领军者既有谷歌、英特尔、IBM这样的科技巨头,也有高通、英伟达、AMD、赛灵思这样在各自领域中有绝对优势的大公司,以及一些发展良好的中等规模公司和活跃的初创企业。

但中国则主要以初创公司为主,没有巨头。其中七家企业中六家都是初创公司,均成立于近三年内,只有一家中等规模企业——中星微。

从芯片类别来看,美国厂商遍布人工智能芯片的四大流派,IC设计环节的产业结构非常均衡,并且在GPU领域,美国企业是完全垄断的,中国为零;在FPGA领域,只能跟随赛灵思做解决方案;在ASIC领域,有些4家创业公司;类脑芯片,也有2家。

芯片是数字经济的产业核心,历来是易守难攻,一旦形成先发优势,后来者很难超越。AI芯片也不例外。在过去十多年里,Intel、IBM、摩托罗拉、飞利浦、东芝、三星等60多家公司曾试图进军AI芯片,但纷纷遭致惨败。

这其中的原因就在于进入门槛高,主要有以下几点:

首先是专利技术壁垒。FPGA四公司用近9000项专利构筑了长长的知识产权壁垒,将进攻者拒于国门之外。即便是强如Intel也望而兴叹,不得以耗资167亿美元收买了Altera,获得了一张FPGA领域的门票。染指GPU就更不用提了。

其次是市场相对偏小。2016年全球FPGA市场总额仅为50亿美元,且有九成落入赛灵思和Altera两家公司,这么小的市场规模很难养活太多的大公司,必然导致竞争异常激烈。

最后是投资周期长。专利壁垒或许可以跨越,市场狭小,或许可以忍受。但是FPGA产品,从投入研发到产品真正规模化生产差不多要七年。这期间几乎没有任何商业回报。正常的风投是等不了这么长时间的。

AI时代论剑,芯片是核心。 AI芯片作为产业上游,也是技术要求和附加值最高的环节,产业价值和战略地位远远大于应用层创新,因此我们需要高度重视。

放眼时代变迁,CPU领域WINTEL联盟已经一统江山极难突破,而AI芯片方兴未艾,机遇正在逐渐显露,AI领域未来必然也会产生类似英特尔、AMD这样的世界级企业。

美国以绝对实力处于领先地位,但一批中国初创企业也在蓄势待发。

但是,AI芯片领域的创新绝不是件一蹴而就的事情。它涉及到人工智能算法、编程语言、计算机体系结构、集成电路技术、半导体工艺的方方面面。在巨大的国际竞争压力下,靠单个企业研发投入,远远不够;单靠有限的风险投资,也不行。靠科技补贴,更是远水解不了近渴。

我们如何相信中国企业有机会成为人工智能时代的弄潮儿,在AI芯片华山论剑之时占有一席之地呢?抱团创新可能会是未来实现突破的方向。AI领域创业空间巨大,所需资金规模巨大,所需资源巨大,单凭创业者个人和团队的能力打天下已经不现实, AI创业者需要跟产业加速器和产业资本密切结合,抱团创新,如此才能有更广阔的发展天地。

而笔者在对腾讯众创调研时了解到,目前许多国内创业企业已经学会了抱团创新,以长青腾创业营为例,开营100余天,40家创业公司总估值实现翻番,超过600亿,58%的学员顺利进入下一轮融资,100天融资总金额超过60亿。眼下,长青腾正在筹划AI创业营。

这对中国AI芯片创业是不是有所启示?


以上所述就是小编给大家介绍的《AI时代论剑,芯片是核心,中国能否弯道超车?》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

A Philosophy of Software Design

A Philosophy of Software Design

John Ousterhout / Yaknyam Press / 2018-4-6 / GBP 14.21

This book addresses the topic of software design: how to decompose complex software systems into modules (such as classes and methods) that can be implemented relatively independently. The book first ......一起来看看 《A Philosophy of Software Design》 这本书的介绍吧!

JSON 在线解析
JSON 在线解析

在线 JSON 格式化工具

Markdown 在线编辑器
Markdown 在线编辑器

Markdown 在线编辑器

HSV CMYK 转换工具
HSV CMYK 转换工具

HSV CMYK互换工具