在英伟达几乎一统天下的AI芯片世界里,谷歌十年前悄悄埋下的一颗种子,终于在2025年的这个秋天,长出了令人无法忽视的枝干。TPU——这个最初只为加快搜索速度而生的定制芯片,如今正从谷歌庞大的数据中心里走出,成为支撑外部AI巨头运转的核心力量。
Anthropic最新宣布与谷歌达成协议,将获得超过一吉瓦的计算能力,价值数十亿美元,最多可接入100万个TPU。这笔交易不只是商业合作,更像是对一种技术路线的公开投票:除了英伟达的GPU,我们还有别的选择。

过去几年,AI的爆发把英伟达推上了神坛。它的GPU本为游戏而生,却意外成了训练大模型的利器。强大、通用、生态成熟,这些优势让它几乎成了唯一选项。但代价也显而易见:价格高企,供应紧张,整个行业被卡在同一个瓶颈里。正因如此,越来越多的公司开始寻找替代方案。
谷歌的TPU,作为专为机器学习打造的专用芯片,自然进入了视野。它不像GPU那样“什么都能做”,但正因如此,它能砍掉冗余部分,把算力更精准地倾注在AI任务上。
第七代TPU的能效和性能持续提升,最新推出的Ironwood芯片甚至采用液冷设计,专攻AI推理,支持从256到9216芯片的大规模集群部署,展现出极强的工程纵深。
TPU并非一夜成名。2013年启动研发,2015年首次亮相,它最早只是谷歌内部的效率工具。但当它被交到DeepMind等团队手中时,意想不到的化学反应发生了。谷歌云负责人马克·洛迈耶回忆,正是TPU提供的强大算力,直接推动了Transformer架构的诞生——如今所有大模型的基石。
这种从实际需求反哺芯片设计、再以先进芯片驱动技术突破的闭环,让TPU的进化始终紧扣AI发展的脉搏。2018年,谷歌开始将TPU开放给云客户,但真正让它走向主流的,是像Anthropic这样的重量级客户的大规模采用。
这笔交易的意义,远不止于数字。它向整个行业释放了一个信号:TPU不再是谷歌的“自留地”,而是一种可信赖的商业化AI基础设施。分析师认为,这可能是TPU走向更广泛生态的起点,未来甚至可能出现在其他云平台。
更耐人寻味的是,TPU的影响力早已通过人才流动悄然扩散。Groq的创始人乔纳森·罗斯曾是TPU项目的核心人物,OpenAI的硬件负责人理查德·何和萨芬·胡达也都出自TPU团队。他们把谷歌的芯片哲学带到了AI战场的各个角落,无形中延续着谷歌的技术影响力。
当然,TPU不会取代GPU。谷歌自己仍是英伟达的大客户,因为通用性在快速迭代的AI世界里同样重要。但TPU的存在,让整个生态多了一种可能。它提醒人们,AI的未来不只有一条路。
当算力竞争进入深水区,真正的优势或许不在于追逐通用的“万能解”,而在于找到专用与灵活之间的平衡点。谷歌用十年时间证明,耐心和垂直整合,终能在巨头林立的赛道里,开辟出属于自己的甜点区。



