尽管美国对高端芯片实施严格出口管制,中国AI大模型却凭借极致的性价比,正在美国科技圈“逆势上位”,被越来越多的硅谷公司悄悄采纳。这股趋势表明,华盛顿的制裁并未能阻断中国AI能力的快速追赶,反而在某种程度上加速了其在效率与开源领域的突破。
最近几周,编程圈炸锅了:两款爆火的美国代码助手Cursor(新发布的Composer模式)和Windsurf(Cognition Labs的产品),被开发者扒出底层其实依赖中国模型(GLM系列、DeepSeek等),甚至在思考链里直接冒出中文。紧接着,Airbnb CEO Brian Chesky在10月公开表示,公司大量生产环境已转向阿里巴巴的Qwen系列,理由简单粗暴——“又快又便宜”,远比OpenAI的模型好用。

无独有偶,知名风投Social Capital的掌门人Chamath Palihapitiya也坦白,他们已把大量核心工作负载迁移到月之暗面(Moonshot AI)的Kimi K2,称其“性能大幅领先、成本却低得多”,直接放弃了OpenAI和Anthropic的方案。
Allen AI研究所研究员Nathan Lambert观察到,尽管美国公司嘴上避谈“用中国芯”,但一大批估值高得离谱的AI初创企业,实际都在拿Qwen、Kimi、GLM、DeepSeek等中国开源模型做底座和训练。他直言:“中国开源模型已经成为美国初创圈的隐形行业标准。”
澳大利亚新南威尔士大学AI教授Toby Walsh一针见血:出口管制非但没卡住中国,反而逼出了更高效、更省资源的模型架构。“压力才是真正的创新之母。”

这事本质上就是市场投票的结果:性价比碾压一切。当一家公司能用1/10甚至1/20的成本,做出90%-95%效果的模型时,资本和工程师根本挡不住诱惑——管你爱国还是安全审查,成本和性能才是硬道理。
美国芯片禁令的实际效果,和当年对华为的制裁差不多:短期疼,长期反而刺激了中国在算法效率、模型蒸馏、量化训练上的疯狂内卷。中国团队被迫在A100、H800甚至更老的硬件上把模型跑得飞起,结果练出了“轻量即正义”的肌肉记忆。而美国那边的闭源大厂,却因为“安全、合规、可控”层层加码,成本被硬生生抬高了好几倍。
更讽刺的是,开源正在成为中国反超的杀招。Qwen、DeepSeek、GLM这些模型权重完全公开,美国初创公司可以直接拿来微调、商用,省去了从零训练的千亿级美元投入。这等于中国用开源在给全世界(包括美国)发“免费算力券”,而美国自己的开源进度(Llama系列除外)却因为各种审查和商业考量严重滞后。
长远看,这对全球AI生态其实是好事:竞争加剧,价格暴跌,创新加速,普通开发者和中小企业都能玩得起AI。但对美国政策圈来说,这是个响亮的耳光——光靠卡硬件已经不管用了。真正有效的反击,只能是:
自己也狠狠拥抱开源(而不是继续搞半开源的“权重只给盟友”);
把钱和人才砸进效率研究,而不是只追参数规模;
接受现实:AI时代,算法和数据效率终将击败硬件垄断。
否则,再过18个月,我们可能看到更多硅谷公司在财报电话里不好意思地说:“是的,我们也在用中国底座……但真的很好用啊。”



