内容简介:最近十年,CPU、GPU等处理器能力有了大幅提升,推动了深度学习的再次兴起。但人工智能的模型也变得更加复杂,需要AI专用处理器。在9月19日的世界人工智能大会的论坛上,AI芯片独角兽寒武纪创始人、CEO陈天石指出,当下的人工智能时代,需要性能更高、功耗更低、价格更合理的芯片,而且要将云端和终端深度融合。为什么有AI专用处理器的需求?陈天石认为,从历史上看,每次出现一个新兴应用,都会有一类专用芯片诞生。以GPU为例,GPU的诞生是为了支持图形显示和游戏。虽然,理论上CPU也可以支持,但只有专门的处理器才能支
最近十年,CPU、GPU等处理器能力有了大幅提升,推动了深度学习的再次兴起。但人工智能的模型也变得更加复杂,需要AI专用处理器。
在9月19日的世界人工智能大会的论坛上,AI芯片独角兽寒武纪创始人、CEO陈天石指出,当下的人工智能时代,需要性能更高、功耗更低、价格更合理的芯片,而且要将云端和终端深度融合。
为什么有AI专用处理器的需求?陈天石认为,从历史上看,每次出现一个新兴应用,都会有一类专用芯片诞生。以GPU为例,GPU的诞生是为了支持图形显示和游戏。虽然,理论上CPU也可以支持,但只有专门的处理器才能支撑大规模、复杂多样化的图形渲染算法。“DSP、FPGA诞生背后都有类似的故事”。因此,在人工智能时代,必然也需要一些专门的处理器来解决这些问题。他称,“不管是在终端还是云端,都要为AI提供专门的处理器芯片。”
在AI领域,智能芯片是AI算法和应用创新的物质载体。从终端到云端,包括机器人和自动驾驶等领域都需要AI芯片做支持。不仅英伟达、谷歌等国际巨头相继推出新产品,国内百度、阿里等纷纷布局这一领域,也诞生了寒武纪等AI芯片创业公司。
从去年下半年到今年上半年,国内不少AI初创企业纷纷推出了自己的芯片或模组,如云知声、出门问问、Rokid等,思必驰也宣布将在下半年推出AI芯片……
根据市场研究公司Compass Intelligence发布的全球AI芯片排行榜,除了英伟达、英特尔等传统芯片公司巨头,中国的寒武纪、地平线等AI芯片公司也位居前列。
与一些国内AI芯片公司专注于单点应用或平台不同,寒武纪立志做AI领域的通用芯片。陈天石称,“AI芯片相对于CPU是专用芯片,但是在AI内部,我们做通用的芯片产品。人工智能领域本身是非常庞大的,要支持各种不同类型的算法应用。”
不过,陈天石也承认,要做AI通用芯片挑战非常大。如何让智能芯片做到通用和好用?他认为,首先,要非常熟悉面临的应用负载特征。根据分析出来的应用负载,设计灵活的指令集,“就像过去在PC和服务器上有X86指令集,移动终端有ARM指令集,人工智能处理器上一定有一个非常灵活、高效的指令集,可以用来解决不同类型的人工智能处理任务。”同时,要设计可扩展性强、高效的架构,使得芯片可以获得更好的性能。
此外,还需要考虑提供适用于人工智能运算的运算器,支持主流的编程框架。
更重要的是,需要在大规模商用当中得到反馈,修正产品。陈天石表示,“没有任何一款产品在设计之初就立刻能够达到完美的状态。如果我们有机会投入大规模商用,在这个过程中可以不断得到反馈,提升处理器的设计。”
在当天大会上,陈天石也多次强调端云结合的概念。“寒武纪做处理器秉承一个思想,端和云有一样的生态、指令集和软件开发平台,使得我们在云和端之间可以灵活切换。”他指出,未来的AI处理不仅限于端和云,如果不能协作起来很多事情就做不了。
陈天石指出,“物联网时代端上可以采集很多数据。如果受限于带宽完全没法在云端处理,AI发挥的威力就大大减弱了。我们在学术界、工业界呼吁我们做深度学习处理一定要把终端和云端融合在一块。”
在2016年推出全球首款商用终端智能处理器IP产品后,今年5月,寒武纪也正式发布了首款云端智能芯片MLU100及相应的板卡产品。
“5G时代端上可以采集很多数据。如果受限于带宽没有办法在本地处理,AI发挥的威力就大大减弱了。我们在学术界、工业界呼吁我们做深度学习处理一定要把终端和云端融合在一块。”
责编:宁佳彦
此内容为第一财经原创。未经第一财经授权,不得以任何方式加以使用,包括转载、摘编、复制或建立镜像。第一财经将追究侵权者的法律责任。 如需获得授权请联系第一财经版权部:021-22002972或021-22002335;banquan@yicai.com。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网
猜你喜欢:- 沈向洋:从深度学习到深度理解
- 深度重建:基于深度学习的图像重建
- 深度网络揭秘之深度网络背后的数学
- 深度解析Python深度学习框架的对比
- 【深度好文】深度分析如何获取方法参数名
- 直观理解深度学习基本概念(小白入门深度学习)
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。