发布时间:2026-01-21 已有: 位 网友关注
在AI资本开支仍维持高位、但商业化压力不断上升的当下,市场关注点正在发生一场悄然却深刻的转移:大模型还能不能继续“无视成本地跑下去”
据追风交易台,高盛最新发布的AI芯片研究报告,并未延续市场熟悉的“算力、制程、参数规模”对比,而是从更贴近商业现实的角度切入——推理阶段的单位成本。通过构建一条“推理成本曲线”,高盛试图回答一个对AI产业至关重要的问题:在模型进入高频调用阶段后,不同芯片方案在折旧、能耗和系统利用率等约束下,每处理一百万个token究竟需要付出多少真实成本
研究结论指向了一次正在加速、但尚未被充分消化的变化:Google/Broadcom 的TPU正在迅速缩小与英伟达GPU在推理成本上的差距。从TPU v6升级至TPU v7,单位token推理成本下降约70%,使其在绝对成本层面与英伟达GB200 NVL72基本持平,部分测算情形下甚至略具优势。
这并不意味着英伟达的地位被动摇,但它清晰地表明,AI芯片竞争的核心评价体系正在从“谁算得更快”,转向“谁算得更便宜、更可持续”。当训练逐渐成为前期投入,而推理成为长期现金流
一、从算力领先到成本效率,AI芯片竞争的评价标准正在切换
在AI发展的早期阶段,训练算力几乎决定了一切。谁能更快训练出更大的模型,谁就拥有技术话语权。然而,随着大模型逐步进入部署与商业化阶段,推理负载开始远远超过训练本身,成本问题被迅速放大。
高盛指出,在这一阶段,芯片的性价比不再只由单卡性能决定,而是由系统层面的效率共同塑造,包括算力密度、互联效率、内存带宽以及能源消耗等多重因素。基于这一逻辑构建的推理成本曲线显示,Google/Broadcom TPU在原始计算性能和系统效率上的进步,已经足以在成本维度上与英伟达正面竞争。
相比之下,AMD和亚马逊Trainium在代际成本下降幅度上仍较为有限。从现阶段测算结果看,两者的单位推理成本仍明显高于英伟达和Google方案,对主流市场的冲击相对有限。
二、TPU成本跃迁的背后,是系统工程能力而非单点突破
TPU v7实现大幅降本,并非来自单一技术突破,而是系统级优化能力的集中释放。高盛认为,随着计算芯片本身逐步逼近物理极限,未来推理成本能否继续下降,将越来越依赖“计算相邻技术”的进步。
这些技术包括:更高带宽、更低延迟的网络互联;高带宽内存和存储方案的持续集成;先进封装技术;以及机架级解决方案在密度与能效上的提升。TPU在这些方面的协同优化,使其在推理场景中展现出明显的经济性优势。
这一趋势也与谷歌自身的算力部署高度一致。TPU在Google内部工作负载中的使用比例持续上升,已广泛用于Gemini模型的训练与推理。同时,具备成熟软件能力的外部客户也在加速采用TPU方案,其中最引人注目的案例是Anthropic向Broadcom下达的约210亿美元订单,相关产品预计将在2026年中开始交付。
不过,高盛同时强调,英伟达仍然掌握“上市时间”优势。在TPU v7刚刚追平GB200 NVL72之际,英伟达已经推进至GB300 NVL72,并计划在2026年下半年交付VR200 NVL144。持续的产品迭代节奏,仍是其维持客户黏性的关键筹码。
三、投资含义再平衡:ASIC崛起,但英伟达的护城河尚未被击穿
从投资视角看,高盛并未因TPU的快速追赶而下调对英伟达的判断。该机构仍维持对英伟达与Broadcom的买入评级,认为两者最直接绑定AI资本开支中最具可持续性的部分,并将长期受益于网络、封装和系统级技术升级。
在ASIC阵营中,Broadcom的受益逻辑尤为清晰。高盛已将其2026财年每股收益预期上调至10.87美元,较市场一致预期高出约6%,并认为市场仍低估了其在AI网络与定制计算领域的长期盈利能力。
AMD和亚马逊Trainium当前仍处于追赶阶段,但高盛也指出,AMD的机架级方案存在后发优势的可能性。预计在2026年末,基于MI455X的Helios机架方案有望在部分训练与推理场景中实现约70%的推理成本下降,值得持续跟踪。
更重要的是,这份研报给出的并非“赢家通吃”的结论,而是一幅逐渐清晰的产业分工图景:GPU继续主导训练与通用算力市场,而定制ASIC在规模化、可预测的推理负载中不断渗透。在这一过程中,英伟达的CUDA生态与系统级研发投入仍构成坚实护城河,但其估值逻辑也将持续接受“推理成本下行”的现实检验。
当AI真正进入“每一个token都要算回报”的阶段,算力竞争终究要回到经济学本身。TPU成本暴降70%,并不是一次简单的技术追赶,而是一次对AI商业模式可行性的关键压力测试。而这,或许正是GPU与ASIC之争背后,市场最应认真对待的信号。