最近几年,中国的人工智能模型正以一种近乎“润物细无声”的方式,悄然渗入硅谷的日常运转中。它们不再是实验室里的追赶者,而成了不少美国科技公司——尤其是初创团队——真正依赖的工具。
这种变化没有伴随太多喧嚣,却实实在在地发生着:便宜、响应快、拿来就能用,成了它们最朴素也最有力的卖点。
2024年10月,爱彼迎(Airbnb)的一则消息让不少人侧目:这家全球知名的短租平台决定放弃OpenAI的ChatGPT,转而采用阿里巴巴推出的通义千问(Qwen)。理由很简单——“速度快,成本低”。
几乎同一时间,社交资本公司也公开表示,已将大量内部开发任务迁移到Moonshot的Kimi K2模型上,称其在性能上明显优于美国主流产品,价格却只有零头。这些并非孤立事件,而更像是冰山一角。

事实上,越来越多美国初创公司正在悄悄把中国大模型当作技术底座。据“原子计划”——一个致力于推动美国开源模型生态的倡议——发起人内森·兰伯特透露,不少估值颇高的AI创业公司,已经在用Qwen、Kimi、GLM或深度求索(DeepSeek)等中国模型训练自己的系统。只是出于对地缘政治风险的顾虑,大多数选择保持沉默。
数据也在默默印证这一趋势。开发者常用的模型调度平台OpenRouter上周的使用榜单显示,前20名中有7个来自中国,包括MiniMax的M2、智谱AI的GLM 4.6和深度求索的V3.2;而在专用于编程的模型前十中,中国公司占了四席。
更引人注目的是,截至2024年10月,Hugging Face平台上中国开源大模型的累计下载量已突破5.4亿次。这不是靠宣传堆出来的数字,而是全球开发者一次次点击“下载”累积的结果。
中国模型之所以能快速打开局面,关键在于策略上的灵活与务实。不同于ChatGPT这类闭源产品,中国的主流大模型大多选择“开源权重”——即公开训练参数,允许用户自由部署和微调。
虽然运行仍需算力支持,但像Z.ai和深度求索这样的公司,巧妙地绕开了美国的芯片禁令,转而使用不受管制的旧一代芯片,在控制成本的同时实现了可观的性能。联博集团2月的一份分析甚至估算,当时深度求索的模型定价比OpenAI低了最多40倍。
对于资金紧张、试错频繁的初创公司来说,这种性价比几乎是无法拒绝的。《中国科技Buzz》曾指出,这类企业往往在生死线上反复试探,自然更愿意选择“够用又便宜”的方案;而资源雄厚的大机构,则仍会优先考虑美国高端模型。
有意思的是,外部限制反而激发了更强的工程适应力——有研究认为,美国的出口管制非但没能卡住中国AI的发展,反而倒逼出一批更轻量、更高效、能在老旧硬件上跑起来的模型。
当然,这股潮流也有它的天花板。学术界普遍判断,在《财富》500强企业或金融、国防等高度监管的领域,出于安全和合规考量,中国模型短期内很难真正落地。
有人打了个比方:人工智能生态或许会重演智能手机时代的格局——安卓靠低价覆盖大众市场,iPhone则凭借体验和信任牢牢守住高端。毕竟,世界上愿意为“实惠”买单的人,永远比追求极致性能的多。
眼下,这场静水流深的替代仍在继续。北京一位科技观察者曾在他的通讯《你好中国科技》中写道:中国AI走的,其实是条老路——就像当年的太阳能板一样,不靠炫技,而是靠规模和价格一点点重塑全球供应链。
只不过这一次,输出的不再是硅片,而是代码、算法,以及一种新的可能性:在技术竞争日益分裂的世界里,实用主义或许才是真正的通用语言。



