发布时间:2026-04-11 已有: 位 网友关注
币界网消息,4 月 11 日,AI 基础设施公司 Ramp Labs 发布研究成果「Latent Briefing」,通过直接压缩大模型 KV 缓存实现多智能体系统间的高效记忆共享,在不损失准确率的前提下大幅降低 Token 消耗。在主流多智能体架构中,编排者将任务拆解并反复调用工作者模型,随着推理链路不断延伸,Token 用量呈指数级膨胀。Latent Briefing 的核心思路是:借助注意力机制识别上下文中真正关键的部分,在表示层直接丢弃冗余信息,而非依赖速度慢的 LLM 摘要或稳定性差的 RAG 检索。在 LongBench v2 基准测试中,该方法表现亮眼:Worker 模型 Token 消耗降低 65%,中等长度文档的 Token 节省中位数达 49%,整体准确率较基线 个百分点,而每次压缩的额外耗时仅约 1.7 秒,较原始算法提速约 20 倍。实验以 Claude Sonnet 4 作为编排者、Qwen3-14B 作为工作者模型,覆盖学术论文、法律文书、小说及政府报告等多类文档场景。研究还发现,最优压缩阈值因任务难度和文档长度而异——难题适合激进压缩以过滤投机性推理噪声,长文档则更适合轻度压缩以保留分散的关键信息。