近期,人工智能和半导体专家迪伦·帕特尔 (Dylan Patel) 接受采访时,深入探讨了计算的过去、现在和未来,推动人工智能发展的巨额资本需求,从 OpenAI 与甲骨文达成的 3000 亿美元交易到英伟达的战略合作。内容涵盖了电力基础设施挑战、前所未有的人才争夺战,以及当前人工智能热潮与以往科技泡沫的不同之处。
由于全文较长,特摘取了核心部分,分成了上、下两篇,逻辑是从“为什么要烧这么多钱”,到“钱到底烧出了什么”。
上篇:钱、算力、资本赌局 ,AI 为什么变成了万亿美元工程?
下篇:智能如何落地,AI 怎么从“会说话”变成“会干活”?

下面是下篇的部分:
如果说 2023 年的 AI 还是工程师和产品经理的狂欢,那么到了 2025 年,它已经变成一场典型的权力游戏。权力不再只体现在模型参数或榜单排名上,而是体现在谁控制算力、谁承担债务、谁能调动电力,甚至谁能重新定义“什么叫 AGI”。
这一轮 AI 竞争最容易被误读的地方在于,外界仍然习惯用“软件行业”的旧逻辑去理解它。但现实已经完全变了。AI 并没有把世界拉进一个更轻资产的时代,恰恰相反,它正在把整个科技行业拖进一个极端重资产、强周期、强博弈的新阶段。
最先显露裂痕的,是软件层。
像 Cursor 这样的工具,看起来只是“更聪明的 IDE”,但它们实际上已经踩进了一条极其危险、同时也极具诱惑力的灰色地带。它们在用户代码库上训练嵌入模型,自己做自动补全,同时又允许用户在 OpenAI 和 Anthropic 之间自由切换。这种状态在商业上有一个精准但不太好听的词:亦敌亦友。
这不是偶然,而是 AI 时代的常态。OpenAI 和微软之间的关系,已经把这种张力推到了极致。一边是全球最重要的模型公司,一边是全球最重要的算力和现金流提供者,双方既彼此绑定,又彼此提防。最戏剧性的细节,藏在那条著名却又模糊不清的“AGI 条款”里——一旦 OpenAI 被认定达成通用人工智能,微软将失去对其核心 IP 和 API 的控制权。
问题在于,AGI 从来不是一个工程定义,而是一个会不断后移的政治定义。二十年前的人看到今天的 ChatGPT,大概率会直接下结论:这就是 AGI;而今天的人则会认真告诉你,它还不会做某某事情。这条线永远画在“刚刚好还没到”的位置上,而它背后牵动的,是数千亿美元合同的生死。
微软当然看得懂这一点。
2023 年,市场一度相信微软会“包圆”AI 世界的底层算力,像一个无限信用的中央银行。但到了 2024 年下半年,态度开始明显转向。原因很简单:没有任何一家上市公司,愿意在资产负债表上长期背着 3000 亿美元级别的算力承诺。于是你看到了一个看似矛盾、实际上极其理性的动作——微软放缓自建数据中心,同时把 OpenAI 推向甲骨文、Nebius、CoreWeave 等第三方算力提供商。
即便如此,OpenAI 仍需向微软支付约 20% 的收入分成,而微软还握着 49% 的利润上限分红权。这是一种典型的金融化关系:你可以去外面借钱,但利息和控制权,依然在我这里。
如果说 OpenAI 和微软的关系是一场精密博弈,那么英伟达的位置就显得粗暴而直接。
英伟达是这轮 AI 中唯一真正意义上的“孤王”。产业链上几乎所有人都在赚钱,但绝大部分超额利润,最终都流进了英伟达的报表。问题在于,它又偏偏是最受限制的一方——反垄断监管让它几乎不可能通过并购继续扩张边界。连 ARM 都买不下来,已经说明了一切。
于是黄仁勋选择了另一条路:用资产负债表打仗。
英伟达不再只是卖 GPU,而是在充当“算力银行”。它通过需求担保、投资背书,帮助 CoreWeave 这样的公司融资建集群。最理想的状态是这样的:风投给初创公司打一笔钱,结果其中 70% 很快变成了英伟达的 GPU 订单。这不是简单的销售,这是对整个算力生态的金融控制。
这也是为什么,“AI 是不是泡沫”这个问题越来越难回答。
历史上,真正的基础设施革命,几乎都伴随着看似疯狂的过度投资。英国修铁路的时候,连续十年投入接近 GDP 的 6%;光纤时代同样如此。原因并不复杂:当你不知道需求上限在哪时,唯一的办法就是先把供给堆到足够低的边际成本。
而今天的 AI 投入,甚至还没到美国 GDP 的 6%。更重要的是,这次下注的,不是杠杆脆弱的投机者,而是全球资产负债表最强、现金流最稳定的一批公司。微软确实曾经想“拔插头”,但现实很快教育了它——算力一旦停建,再想补回来,只能以更高的价格租回来。最近那笔接近 200 亿美元的 GPU 租约,本质上就是一张迟到的账单。
支撑这一切的,是一个极其简单、却被严重低估的事实:软件工程的需求,几乎是无限的。
如果你真的拥有一个与 Google 资深工程师水平相当、且可以无限复制的 AI,那么一个规模在 2 万亿美元左右的软件开发市场,就会被整体重估。这一次的工业革命,并不是用机器替代人,而是在制造“可复制的人力资本”。
而且,AI 带来的并不只是“把旧事情做快”。有些事情,如果没有 AI,根本做不了。利用大模型扫描全球监管文件、结合卫星图像分析数据中心负载、再反推企业收入,这类分析在过去需要几十甚至上百人的团队,而现在,只需要三个人加几台服务器。
真正的瓶颈,反而出现在最“土”的地方:电。
目前 AI 数据中心只占美国用电量的 2% 到 3%,问题不在比例,而在结构。美国已经将近 40 年没有系统性地扩建电力基础设施了,而现在,一开口就是 2 吉瓦级别的数据中心——相当于一座中型城市的用电量。更棘手的是,AI 训练负载变化极快,对电网稳定性的冲击,正在逼着工程师重新学习那些被遗忘的知识:惯性、频率、变压器。
AI 正在重塑的,不只是软件商业模式,而是整个技术世界的底层假设。当写代码的成本接近于零,那些靠高订阅费维持增长的软件公司,迟早会发现自己站在沙滩上。



