内容简介:中国初创公司在 AI 芯片(IP)领域的机会
去年 11 月的时候第一次思考这个题目,今年 3 月做过一次更新。短短几个月,AI 芯片领域变化不断,新闻不断,有必要再更新一下这个讨论。希望这次能把一个更为完整的分析呈现给大家。
我认为相关的市场主要可分成三大类。第一类是 Data Center(Cloud)中用于 training 和 inference 的专用芯片或者 FPGA(非 GPU/CPU 芯片)。第二类是需要较强智能的终端芯片(面向手机,安防监控,无人机,机器人,自动/辅助驾驶,VR/AR 等),或许可以叫“泛手机终端芯片”。这类应用主要也是 inference 功能,不排除未来有 training 的需求;第三,是智能需求较低的终端芯片(穿戴,玩具,智能家居等等),以下叫“弱智能终端芯片”。当然,终端设备对智能的需求是相对的,可能覆盖很大范围。这里说的第三类实际上也可以看作是指受到成本,功耗等因素限制的 inference 需求。(参考, 如何做神经网络处理器的需求分析? )
还是先说结论:
Cloud training/inference(专用芯片/FPGA): 可以一搏 ;泛手机终端芯片: 机会很小 ;弱智能终端芯片: 充满变数 ;
•••
先说说第二类吧。为什么说第二类对于初创公司基本没有机会?因为这是目前芯片产业竞争最激烈的战场。手机芯片大厂(高通,MTK,海思,展讯,苹果,三星)已经非常强大,而且还在不断把自己的技术能力推广到无人机,机器人,安防监控,自动驾驶,VR/AR 等领域。很难想象会有初创公司能够再挤进来。
那么以 IP 形式进入是否有机会?个人的看法也是机会很小。第一,从技术能力来讲,这些公司都有实力(多年做通信基带和多媒体的经验)自己设计复杂的加速器或者专用处理器;第二,传统的 IP 厂商,比如 CEVA,Synopsys,Cadence(tensilica)和 Vericilicon 也都盯着 AI IP 这个机会。最近这些公司也都频繁发布支持 AI 应用的 DSP 和硬件加速器产品(参考 神经网络 DSP 核的一桌麻将终于凑齐了 )。初创公司的 IP 如果有一定的技术特点和价格上的灵活性,有可能在大厂预热过程中得到试用的机会。但最终出现在量产芯片中的可能性非常小。第三,目前很多带 AI 性质的应用,要么是在 cloud 端实现,要么就直接拿现有的硬件资源来实现,比如 ARM CPU/GPU 或者已有的 multimedia DSP 来实现。手机芯片巨头都在定义 AI 相关的 user case,是否有 killer app 需要在手机芯片中增加额外的硬件代价还有待观察。最后,ARM 前段时间也推出了面向 AI 的 DynimicIQ 方案,其中定义了 CPU 和 DL 加速器的接口;后续还可能有更多动作,可能会对这个领域有很大的冲击。而 Nvidia 开源 xavier DLA,会进一步拉低 inference 实现的门槛( 从 Nvidia 开源深度学习加速器说起 )。最近 MTK 最近也有所动作,可以看出 AI 在其未来战略中的重要性。
不过在这个 Deep Learning IP 领域,国内的一个 Startup 可能会给我们带来好消息,值得期待。
•••
第三类弱智能计算应用,实际上可以也和第二类应用一起叫做边缘计算应用。这里加以区别,是因为这类应用对功耗、成本甚至尺寸的压力更大,主要包括一些物联网,可穿戴应用。其硬件平台的处理器能力非常有限(传统的 MCU 领域)。这类应用的总量很大,但差异化明显,需求五花八门,存在很多变数,技术上很难用一种架构来实现。相对泛手机芯片而言,这类芯片的资金投入门槛不高。随着 Nvidia 开源 DLA,如果配合开源的 RSIC-V CPU,门槛可能会进一步降低(当然,用开源的东西,技术门槛可能会更高)。所以,能不能成功的关键还得看芯片的 spec 定义是不是合理,能不能在市场出现的时候及时拿出芯片。相信未来可以看到不少初创公司在这个领域出现和死亡。目前看得比较清楚的是智能语音应用,从技术的可行性到市场的驱动都已经具备了芯片化的条件。
在这个领域,我还是比较看好由应用驱动芯片研发的公司。目前国内有很多 Startup 在图像处理,声音处理的算法和应用方面已经有了不错的积累。如果它能在某个细分领域获得领导地位,并根据应用定义和开发自己的芯片,巩固技术优势,则是一个比较好的状态。简而言之,就是顺势而为,水到渠成,而不是为了做芯片而做芯片。(当然,很多公司也是为了拿到投资而把设计芯片作为噱头的,这种情况我就不予置评了。)
•••
在 Cloud 和 Data Center 的 training 和 inference 领域,最近 Nvidia 和 Google 的密集发布引来不少口水战。我在“ AI 芯片架构的争论真有意义吗? ”这篇文章中已经介绍了目前的这个领域大家的竞争的重点是什么。
“对于 Data center 的 training 和 inference 系统来说,竞争已经不是在单一芯片的层面了,而是看能否扩展到 exascale 的问题(exaFLOPS,10 的 18 次方)。而和 TPU2 的同时发布 TensorFlow Research Cloud (TFRC),对于发展 TPU2 的应用和生态,才是更为关键的动作。”
所以,除了基本的需求,比如 Training 需要的强大处理器能力,高精度,高灵活性;Inference 需要的低延时,高吞吐率,高功耗效率这些因素之外;对于异构的大规模分布处理系统的 Knowhow 已经生态系统的建设也非常重要。而这一点往往是 Startup 非常欠缺的。
不过,个人还是比较看好国内的这块市场的。第一,目前很多中国的互联网巨头(包括很多小巨头)都把 AI 作为重点发展的方向,也有非常实际的需求,比如下图就是蚂蚁金服在 GMIS 上介绍的 AI 业务。
第二,从竞争态势来说,目前是 NVIDIA 一家独大,利润空间很大;Intel 虽然也有很多动作,但多长时间能推出可以和 NVIDIA 抗衡的产品还很难说。第三,国内目前对 server 芯片自主设计的呼声很高,容易得到国家支持。相对 server CPU(已经有海光和华芯通在做)的复杂度和生态环境,Machine Learning 专用芯片在技术实现和应用渗透方面都要简单不少(Google 的 TPU 就是个很好的例子)。所以,目前这个领域对于国内公司来说是值得一搏的机会。成功立足的话,很有可能做大做强。不过这个领域需要大量烧钱,必须有资本实力作保障。
总的来说,不管是从技术层面,还是资金层面来看,如果能找到一个有一定规模和实际需求的互联网公司合作,也许是成功的关键。
最后,Cloud 端还有一个比较有趣的市场:基于 FPGA 的 inference 应用(比如对图像、连续视频和语音的检测和识别,实时翻译等等)。这类应用除了需要强大的处理器能力能力外,对实时性要求非常高。这类应用对成本不是很敏感,适合用 FPGA 来。首先,通用的 GPU 做 inference,不一定能满足实时性的要求,而针对特定应用优化过的 FPGA 设计,inference 效率会高很多;其次,和用专用的芯片做 inference 对比,FPGA 的灵活性又有很优势,改变算法或者网络的成本很低,非常适合人工智能领域的快速发展和变化;第三,FPGA 进入 Cloud 市场是个趋势,目前 Amazon,阿里云和腾讯云都开始提供(或者试用)FPGA 资源,机器学习应用是一个重要内容。而 FPGA 的固有缺点:成本高,能耗大(和专用芯片相比),在这个应用场景下基本可以忽略。在今年的 GMIS 上,蚂蚁金服介绍了他们的机器学习平台,其中 FPGA 已经是重要的组成部分。
以上分析只是个人一点浅见,如果有不对的地方,欢迎大家批评指正,也欢迎大家和我交流。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网
猜你喜欢:- 中国AI芯片初创公司被美国巨头收购,政府该不该管?
- MIT初创公司发布全球首个光子AI芯片原型!独立光学计算硬件,庞大系统成功集成至常规板卡丨独家专访
- 在疯狂生长的初创工作是什么体验
- VMware 收购 Kubernetes 初创公司 Heptio
- VMware为何要收购Kubernetes初创公司Heptio?
- 海外报道丨微软收购虚拟桌面初创企业FSLogix
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
Algorithms on Strings, Trees and Sequences
Dan Gusfield / Cambridge University Press / 1997-5-28 / USD 99.99
String algorithms are a traditional area of study in computer science. In recent years their importance has grown dramatically with the huge increase of electronically stored text and of molecular seq......一起来看看 《Algorithms on Strings, Trees and Sequences》 这本书的介绍吧!