发布时间:2026-05-12 已有: 位 网友关注
币界网消息,伊利诺伊大学计算机科学博士生Dylan Zhang进行了一组agent记忆实验,结果显示让模型反复总结经验可能会导致其记忆能力下降。研究者发现,GPT-5.4在无记忆状态下能正确回答的19道题目,在经过多轮记忆压缩后,准确率从100%降至54%。此外,在webshop网购任务中,AWM记忆方法在处理8条专家轨迹时得分为0.64,但当轨迹增加到128条时得分降至0.20,回到无记忆基线。作者建议,开发者应保留经过筛选的原始操作轨迹,而不是急于让agent每轮都写「错题本」。