发布时间:2026-04-29 已有: 位 网友关注
币界网消息,AI研究者Aran Komatsuzaki将Rich Sutton的知名论文《苦涩的教训》翻译成9种语言,并测试了OpenAI、Gemini、Qwen、DeepSeek、Kimi和Claude 6家模型的分词工具。结果显示,同样内容用中文问Claude,token消耗是基准的1.65倍,而用OpenAI仅为1.15倍。印地语在Claude上的消耗更夸张,超过基准3倍。翻译会改变文本长度,因此与英文相比的倍数不完全精确,但同一段中文在不同模型上的表现更具说服力:Kimi只花0.81倍,Qwen 0.85倍,而Claude则为1.65倍。Aran的结论是,市场越大,token消耗越省。