CXL内存池化方案如何加速AI存储架构变革?

频道:热搜 日期: 浏览:539 作者:李思远

在当前人工智能(AI)技术迅猛发展的背景下,存储架构的优化显得尤为重要。东方证券近期发布的研究报告指出,CXL(Compute Express Link)内存池化方案能够显著提升存储系统的效率,未来在AI算力设施中的内存硬件构成或将经历一次深刻的重塑。这一观点引起了业内广泛关注,特别是头部厂商正在加速布局相关技术。

CXL内存池化方案的基本概念

CXL内存池化方案是一种支持跨CPU、GPU及其他计算加速器的内存资源进行统一寻址、统一调度与透明访问的技术。这种方案的核心在于实现内存资源的整合与统一调度,进而支撑更大规模、更高并发的大模型训练与推理任务。

在AI推理过程中,模型的上下文缓存、权重等数据存储需求日益增长,而传统服务器的内存扩展受到插槽数量及单根内存条容量的限制,这一现状亟需改变。当前的存储架构在调度方面也存在低效的问题,模型参数和激活值需要频繁从HBM(高带宽内存)迁移到DRAM(动态随机存取存储器)再到SSD(固态硬盘),这种频繁的数据迁移导致了延迟的放大、带宽的浪费以及吞吐率的下降。

CXL方案带来的优化

CXL内存池化方案的推出,正是为了解决上述存储架构的问题。通过拓展内存空间并提供灵活的资源分配方案,CXL技术能够有效提升AI模型的训练和推理能力。同时,CXL技术的应用还可以显著降低数据中心系统的总拥有成本(TCO),这一点吸引了众多投资者的关注。

头部厂商的积极布局

尽管部分投资者对内存池化方案的成熟度表示担忧,但东方证券的报告指出,CXL内存池化相关的软硬件设施已经逐步完善,头部大厂正在加速推进布局。例如,CXL4.0规范在2025年11月发布,数据速率达到了128GT/s,较CXL3.0翻倍。业内巨头英伟达也在不断推动CXL技术生态的发展,收购了Enfabrica的核心团队和技术,助力相关方案的布局。

不仅如此,国内的服务器厂商也相继推出了CXL内存池化相关方案。2025年,阿里云在云栖大会上宣布推出全球首款基于CXL2.0 Switch技术的PolarDB数据库专用服务器,而浪潮信息则在2025年12月推出了元脑服务器CXL内存扩展方案,基于元脑服务器NF5280G7,内置CXL内存扩展卡。这些进展表明,随着相关软硬件的逐步完善,CXL技术的渗透率有望快速提升。

产业链的深度受益

根据Techinsight的预测,CXL在服务器DRAM中的总份额将从2024年的近乎为零,快速增长至2030年的约15%。这意味着,支持CXL功能将逐步成为服务器的标准配置,整个产业生态也将加速成熟。

各大厂商正在不断推进内存池化方案的创新,以适应日益增长的AI推理需求。例如,浪潮元脑服务器操作系统KOS基于CXL内存池化技术,推出了“存传一体”的KVCache管理系统MantaKV,将P节点产生的海量KVCache集中存储在CXL池化共享内存中。这一创新不仅提升了模型的推理效率,还有效解决了传输冗余的问题。

此外,北京大学联合阿里云等机构首次提出使用CXL内存池来存储Engram,并将其集成到SGLang框架中,这一方案实现了接近本地DRAM的端到端性能,为集成Engram的大型语言模型提供了可扩展且具成本效益的存储解决方案。

风险与展望

尽管前景光明,CXL内存池化方案的推广仍面临一些风险。例如,AI的实际落地效果可能不及预期,技术迭代速度也可能低于预期,国产化进展同样面临挑战。然而,随着AI推理需求的不断提升,CXL内存池化方案的应用空间将持续扩大,产业链也有望从中深度受益。

总之,CXL内存池化方案的逐步推广将极大地推动AI存储架构的变革,头部厂商的加速应用无疑将为整个行业带来新的发展机遇。