2023年初,代号“Sapphire Rapids”的第四代英特尔至强可拓展处理器发布。
2023年底,代号Emerald Rapids的第五代英特尔至强可扩展处理器(以下简称第五代至强)也正式推出。
英特尔一年卷出两代产品的关键到底是什么?
生成式AI需要什么样的处理器?
“以前模型都比较小,现在模型变大后,单芯片的能力,甚至是单服务器的能力都未必能够满足生成式AI的诉求,所以互联互通的能力非常重要,这是芯片需要具备的非常重要的能力。”火山引擎IAAS产品负责人李越渊对雷峰网(公众号:雷峰网)表示。
这正是第五代至强升级的一个重点,第五代至强具备8条DDR5通道,支持5,600 MT/s的传输速率,且采用英特尔超级通道互联(英特尔UPI)2.0以增加跨插槽内带宽,提供高达 20 GT/s的传输。领先的云服务供应商(CSP)采用基于第五代至强的实例,将能够使用CXL Type 3内存设备来扩展内存容量。
王伟透露,阿里在自研的第八代服务器上做了各种AI尝试,发现生成式AI对于CPU已经不算挑战。使用CPU进行通义千问7B/14B/72B这样较大规模模型的推理,已经可以在单个阿里鱼第八代ECS实例上运行。
这得益于第五代至强每个内核均具备AI加速功能,不用添加独立的加速器,就可以处理端到端的工作负载。英特尔采用内部模型的测试结果显示,参数量多达200亿的大语言模型的推理性能提高42%,延迟低于100毫秒。
“AI模型是每个公司最重要的资产,所以会非常关注自身数据的安全和模型安全。”李越渊指出,“英特尔在这上面做了很多努力和尝试,包括英特尔TDX可以更加透明、低门槛的让客户实现端到端的安全,我们云厂商也非常关注芯片的安全性能。”
年初发布的第四代英特尔至强可扩展处理器就已经集成了英特尔可信域拓展(英特尔TDX),能够提供虚拟机(VM)层面的隔离和保密性,增强隐私性和对数据的管理,随着新产品的推出,所有OEM和CSP解决方案提供商均可启用该功能。
显然,英特尔一年推出两代产品,主要还是为了满足客户的需求。
“客户能否依赖我们的产品进行演进,我们也是非常紧密的跟像阿里或者是字节沟通。”陈葆立说,“我们不管什么产品,在早期的沟通得到反馈后,我们会做相应的改进。我们也希望我们承诺的东西能够满足客户最终的需求,以客户为优先拥抱市场。”
至强CPU有什么优势?
AI训练并不是CPU的强项,GPU有架构优势。
“在推理任务中,CPU的容忍度更高一些,更有可能很好的完成任务。”李越渊表示。
不过,在每个核加入AI加速单元后,至强CPU已经不是传统意义的CPU。
王伟认为,“尝试在通用CPU中加一些向量计算单元,有利于面向AI场景,随着AI的应用发展,CPU和GPU这两种体系架构的融合芯片会走向必然。”
不可忽视的是,无论是CPU、GPU、NPU还是各种AI加速器,在生成式AI快速发展的时刻,都有巨大的机会,特别是在推理市场。埃文斯数据公司的调查数据显示,边缘和客户端设备对推理的需求相比数据中心超过了1.4倍。
此时能够更好满足客户推理需求的产品更容易获得青睐。
“长期来看,我们也会更多关注大模型AI推理侧,如何通过降低对算力的诉求,更好的孵化大模型在推理侧的应用和发展。”王伟认为,“未来大模型AI推理的算力需求一定会持续下降,降低到端云结合的方式可以进行大模型AI推理,甚至在部分AI大模型推理应用中,算力需求量应该要降到端侧的单颗芯片即可完成,比如一部手机。”
这是英特尔至强的机会所在。英特尔也在努力降低客户的总体拥有成本(TCO),对于遵循典型的五年更新周期并从更前一代处理器进行升级的客户,总体拥有成本最多可降低77%。
陈葆立强调,“我们保持平台延伸性,不管是软件厂商或者是一体机提供商,升级到第五代英特尔至强可扩展处理将非常快的,因为整个平台验证和软件验证都做完了。”