发布时间:2026-04-18 已有: 位 网友关注
币界网消息,4 月 18 日,据 动察 Beating 监测,月之暗面与清华大学 4 月 16 日在 arXiv 挂出新论文《Prefill-as-a-Service》,提出让大模型推理的预填充阶段跨数据中心运行。 大模型推理分两步:prefill 先把输入一次性读进来、生成一份 KV 缓存;decode 再根据这份缓存逐字吐出结果。两步需要的硬件特性完全不同,prefill 吃算力,decode 吃显存带宽。业界主流做法是把两步拆到不同机器上,但这要求两边在同一个数据中心里用 RDMA 互联,因为密集 attention 模型的 KV 缓存每秒几十 Gbps 地吐,一旦传慢 GPU 就空转。 转折来自新一代 hybrid attention 模型。论文实测 Kimi Linear、MiMo-V2-Flash、Ring-2.5-1T 等模型通过少量完整 attention 层加大量线性层的组合,把 KV 缓存吞吐量砍掉了约一个数量级,Ring-2.5-1T 的综合压缩比达到 36 倍。这时 KV 缓存可以从 RDMA 专网搬到普通以太网上传。 PrfaaS 的具体做法:组建独立的「预填充集群」,只把长上下文、未命中前缀缓存的请求路由过去,短请求留在本地 PD 集群;预填充完成后通过以太网把 KV 缓存回传本地集群做 decode。配套引入长度阈值路由、带宽感知调度器和混合前缀缓存池。论文用内部 1T 参数 hybrid 模型做了一组实测,整体服务吞吐比同构 PD 部署高 54%,比朴素异构方案高 32%,每台机器只占适中的跨数据中心带宽。