英特尔、亚马逊 AWS、IBM、高通和 UIUC 的研究人员联合发出了一封 "Tensor LLVM Extensions" (TXL)提案,详细介绍了他们关于 Tensor LLVM 扩展的建议。
提议中指出,Tensor LLVM 扩展可以使 LLVM 编译器堆栈能够更好地处理张量核心和类似硬件,以应对当今日益增长的 AI/ML 以及相关领域的工作负载。在支持 CPU 和 GPU 方面,LLVM 已经占据主导地位,而 Tensor LLVM 扩展将帮助其处理英特尔高级矩阵扩展 (AMX)、NVIDIA 张量核心、AMD 矩阵核心、 Qualcomm HVX、Amazon Infferentia/Trainium 和其他加速器。
目前,此类加速器的大多数编译器堆栈都是闭源的,没有任何通用解决方案来共享 LLVM 可以提供的优化和其他编译器功能。并且,该提议将使供应商更容易为此类硬件创建优化的编译器后端,利用现有的 LLVM 前端用于各种编程语言以更轻松地利用此类张量硬件。简而言之,他们希望使用一组通用张量操作来扩展 LLVM IR,这些操作可以跨硬件后端工作,并更好地优化 LLVM 张量代码生成。
据悉,相关人员已经在为他们自己的平台提出一个原型实现,并有望将所有这些工作合并到 LLVM 的主线。关于该组扩展的详细内容,可以查看该提案。
猜你喜欢:暂无回复。