英特尔推出NNP-I神经网络处理器:大改Ice Lake,添加Nervana推理处理引擎

栏目: 数据库 · 发布时间: 5年前

本文约902字,需2分钟阅读

人工智能是当下最火热的话题,从手机到超算都在其中增加AI的AI运算能力。英特尔在台北电脑展上推出了全新的Ice Lake处理器,其中增添的AVX512指令集以增强其AI运算性能。不过英特尔的想法不止于此,根据 Tom's Hardware的报道 ,英特尔在位于以色列海法的研发中心推出了一款针对推理运算的Nervana神经网络处理器,简称NNP-I。

英特尔推出NNP-I神经网络处理器:大改Ice Lake,添加Nervana推理处理引擎 图片来自 Tom's Hardware

这款处理器与常见的神经网络处理器不同的是,它将此前发布的Ice Lake处理器与Nervana神经网络处理器结合,组成这款NNP-I处理器。但这款处理器与Ice Lake处理器有很大的不同,英特采用了Ice Lake处理器的基础设计并做出了修改,将其中的Gen 11核显及显示模块去掉,将其替换成针对推理运算的AI加速器。同时英特尔还在这款处理器上添加了DSP引擎,用于未针对固定功能加速器优化的算法,为其他类型的AI运算提供兼容性。

英特尔推出NNP-I神经网络处理器:大改Ice Lake,添加Nervana推理处理引擎

而CPU部分依旧采用多个英特尔Sunny Cove架构的x86核心,但并不知道其核心数目。英特尔产品工程总经理Oren Gershon模糊地称他们移除了一些其他的核心为AI加速器腾出额外的位置,所以这款处理器可能采用了两个处理器内核。

英特尔推出NNP-I神经网络处理器:大改Ice Lake,添加Nervana推理处理引擎

英特尔提供了包括m.2等几种形式的加速卡样式,因此它可以安装在服务器主板的标准m.2接口或PCIe扩展卡上。与一些专为AI设计的定制芯片不同,这款产品几乎兼容所有的现代服务器,甚至可以根据需要为服务器添加多个NNP-I模块。

英特尔推出NNP-I神经网络处理器:大改Ice Lake,添加Nervana推理处理引擎

英特尔也在软件方面进行了优化,在使用NNP-I加速器时,服务器可将全部神经网络推理运算转移到NNP-I处理器中,并在任务完成时通知服务器中的Xeon主处理器。而且由于NNP-I处理器拥有完整的I/O模块(拥有PCH),所以其可以访问处理所需的数据,而且英特尔称这并不会受到PCIe x4带宽的影响。

由于内部有全新的Sunny Cove架构的x86内核,所以NNP-I也有AVX512指令集,支持VNNI深度学习指令,所以它技术适用于任何类型的AI负载,英特尔也提供了编译器,为NNP-I加速器提供定制代码。如PyTorch及TensorFlow等机器学习框架,NNP-I加速器可以几乎无改动的运行支持这些框架的代码。

英特尔Ice Lake处理器的TDP为28W,而m.2接口有15W的功耗限制,但由于其可以插在PCIe扩展卡上,所以NNP-I加速器可以运行在更高的功耗下,以提供更好的性能。而具体性能方面英特尔并没有透露,但英特尔已经向早期客户提供样品,并在今年晚些时候大批量生产。


以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

Servlet与JSP核心编程

Servlet与JSP核心编程

[美]Marty Hall、Larry Brown、Yaakov Chalkin / 胡书敏 / 2009-6 / 68.00元

《Servlet与JSP核心编程(第2卷 第2版)》在第l卷的基础上,广泛涉及自定义标签库、过滤器、声明式安全、JSTL和Struts等主题,并沿袭深受读者喜爱的写作风格,通过完整、有效、资料丰富的程序来演绎目前最流行的技术和最佳实践。Java EE已经成为电子商务网站、动态网站和Web应用与服务开发的首选,作为这一平台的基础,servlet与JSP的重要性日益突出,并在极短的时间内得以迅速普及。......一起来看看 《Servlet与JSP核心编程》 这本书的介绍吧!

RGB转16进制工具
RGB转16进制工具

RGB HEX 互转工具

图片转BASE64编码
图片转BASE64编码

在线图片转Base64编码工具

正则表达式在线测试
正则表达式在线测试

正则表达式在线测试