12 月 7 日消息,英特尔今日发布一篇文章,回答了网友有关 AI PC 的疑问。
首先,英特尔表示最先提出了 AI PC 概念 —— 今年 9 月英特尔 CEO 帕特・基辛格在硅谷提出了这一概念。
关于什么是 AI PC,英特尔表示 AI PC 就是能玩转 AI 功能的 PC。AI 可通过云与 PC 的紧密协作,或在 电脑 端独立运行大语言模型,进而从根本上改变、重塑 PC 的用户体验,释放人们的生产力和创造力。
关于 AI PC 的用处,英特尔表示,AI PC 能干的远超你想象。AI 进入人们的生活圈,有了英特尔酷睿 Ultra 处理器,AI PC 将得到普及。人们就可以更简单、更便利地使用 AI 功能。人人都能展现自己的艺术天赋。各类视频制作高手、音乐创作人、设计创意达人都会享受精彩生活。AI PC 的功能是包罗万象的,包括 AI 配音、变声、视频会议眼神矫正,也会包括生成式 AI,比如文生文、文生图、文生音乐这些功能。此外,还会包括 AI 抠图、手势识别、动作捕捉等等非常精彩的功能。
据据媒体此前报道,英特尔即将在 12 月 15 日在国内发布酷睿 Ultra 系列处理器,该系列处理器配备了集成式 NPU,提供低延迟 Al 计算。英特尔称,从 MeteorLake 开始,英特尔会将 Al 广泛引入 PC,带领数亿台 PC 进入 Al 时代,而庞大的 x86 生态系统将提供广泛的软件模型和工具。
英特尔 NPU 架构详解:
主机接口和设备管理 —— 设备管理区支持微软的新驱动程序模型,称为微软计算驱动程序模型 (MCDM)。这使 Meteor Lake 的 NPU 能够在确保安全性的同时以卓越的方式支持 MCDM,而 内存 管理单元(MMU)提供多种情况下的隔离,并支持电源和工作负载调度,从而实现快速的低功率状态转换。
多引擎架构 ——NPU 由一个多引擎架构组成,该架构配备两个神经计算引擎,可以共同处理单一工作负载或各自处理不同的工作负载。在神经计算引擎中,有两个主要的计算组件,其一为推理管道一一这是高能效计算的核心驱动因素,通过最大限度地减少数据移动并利用固定功能运作来处理常见的大计算量任务,可以在神经网络执行中实现高效节能。绝大多数计算发生在推理管道上,这个固定功能管道 硬件 支持标准的神经网络运作。该管道由一个乘积累加运算(MAC)阵列、一个激活功能块和一个数据转换块组成。其二为 SHAVEDSP —— 这是一款专为 Al 设计的高度优化 VLIW DSP(超长指令字 / 数字信号处理器)。流式混合架构向量引擎( SHAVE)可以与推理管道和直接内存访问 (DMA)引擎一起进行管道化,实现在 NPU 上并行进行的真正异构计算,从而最大限度地提高性能。
DMA 引擎 —— 该引擎能够优化编排数据移动,实现最高的能效和性能。