英特尔推出NNP-I神经网络处理器:大改Ice Lake,添加Nervana推理处理引擎

栏目: 数据库 · 发布时间: 5年前

本文约902字,需2分钟阅读

人工智能是当下最火热的话题,从手机到超算都在其中增加AI的AI运算能力。英特尔在台北电脑展上推出了全新的Ice Lake处理器,其中增添的AVX512指令集以增强其AI运算性能。不过英特尔的想法不止于此,根据 Tom's Hardware的报道 ,英特尔在位于以色列海法的研发中心推出了一款针对推理运算的Nervana神经网络处理器,简称NNP-I。

英特尔推出NNP-I神经网络处理器:大改Ice Lake,添加Nervana推理处理引擎 图片来自 Tom's Hardware

这款处理器与常见的神经网络处理器不同的是,它将此前发布的Ice Lake处理器与Nervana神经网络处理器结合,组成这款NNP-I处理器。但这款处理器与Ice Lake处理器有很大的不同,英特采用了Ice Lake处理器的基础设计并做出了修改,将其中的Gen 11核显及显示模块去掉,将其替换成针对推理运算的AI加速器。同时英特尔还在这款处理器上添加了DSP引擎,用于未针对固定功能加速器优化的算法,为其他类型的AI运算提供兼容性。

英特尔推出NNP-I神经网络处理器:大改Ice Lake,添加Nervana推理处理引擎

而CPU部分依旧采用多个英特尔Sunny Cove架构的x86核心,但并不知道其核心数目。英特尔产品工程总经理Oren Gershon模糊地称他们移除了一些其他的核心为AI加速器腾出额外的位置,所以这款处理器可能采用了两个处理器内核。

英特尔推出NNP-I神经网络处理器:大改Ice Lake,添加Nervana推理处理引擎

英特尔提供了包括m.2等几种形式的加速卡样式,因此它可以安装在服务器主板的标准m.2接口或PCIe扩展卡上。与一些专为AI设计的定制芯片不同,这款产品几乎兼容所有的现代服务器,甚至可以根据需要为服务器添加多个NNP-I模块。

英特尔推出NNP-I神经网络处理器:大改Ice Lake,添加Nervana推理处理引擎

英特尔也在软件方面进行了优化,在使用NNP-I加速器时,服务器可将全部神经网络推理运算转移到NNP-I处理器中,并在任务完成时通知服务器中的Xeon主处理器。而且由于NNP-I处理器拥有完整的I/O模块(拥有PCH),所以其可以访问处理所需的数据,而且英特尔称这并不会受到PCIe x4带宽的影响。

由于内部有全新的Sunny Cove架构的x86内核,所以NNP-I也有AVX512指令集,支持VNNI深度学习指令,所以它技术适用于任何类型的AI负载,英特尔也提供了编译器,为NNP-I加速器提供定制代码。如PyTorch及TensorFlow等机器学习框架,NNP-I加速器可以几乎无改动的运行支持这些框架的代码。

英特尔Ice Lake处理器的TDP为28W,而m.2接口有15W的功耗限制,但由于其可以插在PCIe扩展卡上,所以NNP-I加速器可以运行在更高的功耗下,以提供更好的性能。而具体性能方面英特尔并没有透露,但英特尔已经向早期客户提供样品,并在今年晚些时候大批量生产。


以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

敏捷教练

敏捷教练

[英] Rachel Davies、[英] Liz Sedley / 徐毅、袁店明 / 清华大学出版社 / 2013-7 / 49.00元

《敏捷教练:如何打造优秀的敏捷团队》取材于国际知名敏捷教练的真实经历,展示了他们在辅导团队进行敏捷实践过程中所积累的辅导技巧,凝聚着他们在对敏捷辅导的真知灼见,每章还针对特定主题总结了在转型过程中教练和团队可能面对的障碍及其应对方案。 《敏捷教练:如何打造优秀的敏捷团队》具有较强的实用性和指导性,适合项目经理、技术总监和敏捷团队的所有成员阅读与参考。一起来看看 《敏捷教练》 这本书的介绍吧!

Markdown 在线编辑器
Markdown 在线编辑器

Markdown 在线编辑器

正则表达式在线测试
正则表达式在线测试

正则表达式在线测试

HSV CMYK 转换工具
HSV CMYK 转换工具

HSV CMYK互换工具