中兴让大模型飞入寻常GPU中兴Mariana撕开显存天花板当大语言模型(LLM)

量子位看科技 2025-08-26 16:54:09

中兴让大模型飞入寻常GPU中兴Mariana撕开显存天花板

当大语言模型(LLM)走向千行百业,推理效率与显存成本的矛盾日益尖锐。

KV Cache (Key-Value Cache)作为提升生成速度的核心技术,却像一个 “吞存巨兽”—— 每增加一个 token,就需要更多显存存储键(Key)和值(Value)向量,最终成为制约模型规模扩张、并发能力提升的 “紧箍咒”如何高效、经济地扩展KV Cache存储空间,已成为全球AI产研界亟待攻克的高地。

Nvidia开源的Dynamo项目,实现存储系统多级缓存算法,热数据在显存、温数据在主机内存、冷数据在 SSD 或远端对象存储,并通过一套统一的索引 + 异步流水线实现自动迁移与透明访问,但是多级存储之间的数据迁移流程复杂,延迟开销难以压缩。

微软推出的LMCahce存储系统,高度兼容vLLM等推理框架,但是对分布式存储支持较低,空间上限低。

阿里巴巴提出一种将KV Cache空间扩展到Tair数据库的远端存储方案,存储空间易扩展,但是读写性能难以满足LLM推理业务的低延迟需求。【图1】

CXL(Compute Express Link) 作为一种新兴的高速互联技术,以其高带宽、低延迟和硬件级缓存一致性的特性,为破解内存瓶颈带来了新的希望,可以解决AI和高性能计算中遇到的内存瓶颈问题。

业界关于CXL存储加速LLM推理的研究仍然较少,探索如何利用CXL等新型介质扩展KV Cache空间,进而将成熟的软件栈迁移到CXL硬件场景,是一项非常有意义的工作。

中兴通讯公司和华东师范大学的研究团队联合提出了一种名为Mariana(马里亚纳)的分布式共享KV存储技术,该工作《Mariana: Exploring Native SkipList Index Design for Disaggregated Memory》论文发表在IEEE Transactions on Parallel and Distributed Systems (TPDS) 。

Mariana作为一个面向计算-内存分离架构的高性能分布式KV索引,可以完美适配大模型推理场景的GPU、KV Cache存储,通过把节点锁细化到条目级、用自适应分裂/合并抑制热点写放大,并以SIMD友好的数据布局和轻量级热点缓存,实现比现有方案高 1.7 倍吞吐、尾延迟降低 23% 的纯有序索引。

Mariana解决了“如何在高并发、热点倾斜、延迟敏感的高性能计算场景,让KV索引同时做到高吞吐、低延迟、可扩展?”的问题,为KV Cache存储提供新的优化方案。【图2】

Mariana提出三项关键创新,分别针对上述三个问题:

1. 细粒度并发控制方案(MSCS - Multi-Slot lock-based Concurrency Scheme)

将并发控制的粒度从节点级下降到条目级。在每个叶子节点内预留多个槽位Slots和对应的闩锁Latch,写入操作时,客户端通过RDMA_CAS竞争一个空闲槽位的闩锁,而不是竞争整个节点的锁,实现同一个节点的不同槽位并发写入,极大地减少了竞争。叶子节点支持动态调整叶子数据范围、自动扩缩,将热点区域隔离以减少后续该节点上的竞争,显著降低了写密集型和高偏斜(skewed)工作负载下的争用,提高吞吐量同时降低了尾延迟。【图3】

2. 为叶子节点定制的数据布局(TLN - Tailored Leaf Node)

采用分离式存储,Key在内存中连续存放,value则与校验和在另一内存块连续存储;连续键数组可一次性加载至SIMD寄存器,大幅提升查找速度;优化读写操作序列,避免多次RDMA读写指令。【图4】

3. 自适应缓存策略

提出一种能够快速感知并缓存变化热点的轻量级缓存机制。使用Count-Min Sketch算法及时识别出热点数据,维护一个按热度排序的链表。计算节点缓存热点L1节点的最小键及存储地址,大幅降低热点数据加载延迟,提升存储系统的读性能。【图5】

实验结果表明,Mariana与目前最新的分布式KV存储系统相比,在读写吞吐、延迟性能方向都有显著的提示。KV Cache属于读多写少场景,Mariana能够解决目前存储方案中的性能瓶颈。【图6】

应用验证,MARIANA的创新设计与大模型KV Cache需求高度契合:

大容量存储:Mariana的解耦内存架构,支持将数据分布在远端CPU DRAM甚至PMem/SSD组成的共享内存池内存节点池,理论上存储空间没有上限。

高吞吐:Mariana通过硬件加速(SIMD) 和智能缓存(元数据缓存) 两种方式,显著减少了完成一次KV Cache查找所需的计算和网络开销,极大地提升了读吞吐量。

低延迟读:Mariana的整个数据路径(本地缓存->RDMA->SIMD搜索)都是为低延迟而优化的。其延迟远低于需要经过远端CPU协议栈的解决方案,能够满足推理流水线的严格延迟要求。

水平扩展:Mariana通过去中心化的细粒度并发控制实现了良好的水平扩展能力,非常适合作为大规模分布式推理集群的存储基础。

基于vLLM框架搭建大模型推理应用,验证关闭KV Cache、开启显存KV Cache、开启Mariana多级存储几个场景的推理性能,配置足够多的并发测试请求,GPU显存空间有限,只能存放50%的KV数据。【图7】

测试结果显示,基于Mariana扩展的多级KV Cache存储能够显著提升大模型的推理过程预加载阶段的性能。

或许在不久的将来,随着CXL技术的成熟与Mariana这样的技术方案的落地,我们会看到百亿/千亿参数模型在普通硬件上高效运行,让 AI 的算力红利真正渗透到每一个需要它的场景中。

0 阅读:0
量子位看科技

量子位看科技

感谢大家的关注