本文约902字,需2分钟阅读
人工智能是当下最火热的话题,从手机到超算都在其中增加AI的AI运算能力。英特尔在台北电脑展上推出了全新的Ice Lake处理器,其中增添的AVX512指令集以增强其AI运算性能。不过英特尔的想法不止于此,根据 Tom's Hardware的报道 ,英特尔在位于以色列海法的研发中心推出了一款针对推理运算的Nervana神经网络处理器,简称NNP-I。
图片来自 Tom's Hardware
这款处理器与常见的神经网络处理器不同的是,它将此前发布的Ice Lake处理器与Nervana神经网络处理器结合,组成这款NNP-I处理器。但这款处理器与Ice Lake处理器有很大的不同,英特采用了Ice Lake处理器的基础设计并做出了修改,将其中的Gen 11核显及显示模块去掉,将其替换成针对推理运算的AI加速器。同时英特尔还在这款处理器上添加了DSP引擎,用于未针对固定功能加速器优化的算法,为其他类型的AI运算提供兼容性。
而CPU部分依旧采用多个英特尔Sunny Cove架构的x86核心,但并不知道其核心数目。英特尔产品工程总经理Oren Gershon模糊地称他们移除了一些其他的核心为AI加速器腾出额外的位置,所以这款处理器可能采用了两个处理器内核。
英特尔提供了包括m.2等几种形式的加速卡样式,因此它可以安装在服务器主板的标准m.2接口或PCIe扩展卡上。与一些专为AI设计的定制芯片不同,这款产品几乎兼容所有的现代服务器,甚至可以根据需要为服务器添加多个NNP-I模块。
英特尔也在软件方面进行了优化,在使用NNP-I加速器时,服务器可将全部神经网络推理运算转移到NNP-I处理器中,并在任务完成时通知服务器中的Xeon主处理器。而且由于NNP-I处理器拥有完整的I/O模块(拥有PCH),所以其可以访问处理所需的数据,而且英特尔称这并不会受到PCIe x4带宽的影响。
由于内部有全新的Sunny Cove架构的x86内核,所以NNP-I也有AVX512指令集,支持VNNI深度学习指令,所以它技术适用于任何类型的AI负载,英特尔也提供了编译器,为NNP-I加速器提供定制代码。如PyTorch及TensorFlow等机器学习框架,NNP-I加速器可以几乎无改动的运行支持这些框架的代码。
英特尔Ice Lake处理器的TDP为28W,而m.2接口有15W的功耗限制,但由于其可以插在PCIe扩展卡上,所以NNP-I加速器可以运行在更高的功耗下,以提供更好的性能。而具体性能方面英特尔并没有透露,但英特尔已经向早期客户提供样品,并在今年晚些时候大批量生产。
以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网
猜你喜欢:- 俄致力打造国产神经网络处理器
- 百度与英特尔合作开发Nervana神经网络处理器
- 卷积神经网络不能处理“图”结构数据?这篇文章告诉你答案
- [译]在 Keras 中使用一维卷积神经网络处理时间序列数据
- 机器不学习:卷积神经网络CNN与图像处理方法论(1)
- 清华大学团队研制高能效通用神经网络处理器芯片STICKER-T
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
Servlet与JSP核心编程
[美]Marty Hall、Larry Brown、Yaakov Chalkin / 胡书敏 / 2009-6 / 68.00元
《Servlet与JSP核心编程(第2卷 第2版)》在第l卷的基础上,广泛涉及自定义标签库、过滤器、声明式安全、JSTL和Struts等主题,并沿袭深受读者喜爱的写作风格,通过完整、有效、资料丰富的程序来演绎目前最流行的技术和最佳实践。Java EE已经成为电子商务网站、动态网站和Web应用与服务开发的首选,作为这一平台的基础,servlet与JSP的重要性日益突出,并在极短的时间内得以迅速普及。......一起来看看 《Servlet与JSP核心编程》 这本书的介绍吧!