美国一直被视为全球经济数据发布的黄金标准。但随着特朗普解雇劳工统计局局长Erika McEntarfer,人们开始质疑美国的数据,还值得信吗?
答案并不简单。这背后牵涉的是数据系统老化、调查响应率下滑、建模失效等一系列深层次问题,而不是简单的造假或政治操控。不仅是非农数据,美国绝大多数经济数据的质量也在下滑。
事实上,美国公布的就业、通胀、GDP等数据,绝大多数都是初步估算值,随后会随着硬数据的到来进行修正。这种调整机制本身就是统计系统的常态。
问题在于近几年,数据的修正幅度显著放大了。
数据显示,疫情后每月非农就业的平均修正值和中位数都比疫情前高出不少。但这是否意味着有政治操控?其实不然,对比数据即可发现,特朗普执政期间,修正的平均值和中位数都低于过去五年的平均水平,也低于拜登任期内的数据。不过,在特朗普任期内的修正多数是下修,超过70%的数据后来被调低,而拜登任内的修正则大约是五五开。
因此,这种情况更像是一种统计噪音或模型误差的累积,而非有人故意作假。
造成数据误差扩大的关键原因有两个。一是调查响应率暴跌。PGIM首席经济学家Tom Porcelli指出,美国劳工统计局所依赖的两项基础调查,现有人口调查和当前就业调查——都遭遇了持续多年的响应率下滑,而疫情之后这一趋势加速恶化。越来越多的雇主和家庭不愿意配合调查,导致基础数据源变差,误差变大。
二是美国经济结构剧变,建模难度陡增。美国经济在过去20年里发生了深刻变化,尤其在过去5年尤为剧烈,统计方法跟不上了。皮特森研究所的Jed Kolko指出,过去,你可以精确统计某个狭义行业,并较容易估算其生产率。但如今的经济以服务业为主,投入与产出大多是无形的,因此更难衡量。制造业可以数机器、测产量,但服务业像写代码、做咨询、看病……怎么量化?更难。现代经济比以往更难统计。
另一个新问题是人口增长的剧烈波动。过去几十年人口增速相对稳定,而疫情与移民潮让增长忽高忽低,打破了原有的模型基础。原来每年多100万人,现在有时突然多300万,有时反而负增长——统计模型全被打乱。
而且疫情让统计与建模变得更困难。例如,疫情期间失业率飙升,但当时失业的含义已不同于以往。
由于许多经济统计包含估算或填补环节,通常是用最近的趋势推未来。但如果经济变得太快,模型推出来的数字误差就会变大。
更雪上加霜的是,美国统计系统还遭遇了预算削减与人手短缺的双重压力。自2009年以来,劳工统计局的实际预算(剔除通胀)已缩水18%。今年情况更糟。联邦政府冻结招聘,“政府效率部门”还压缩编制,导致统计机构失去关键专家,走一个补不了。这让本已捉襟见肘的统计局,根本无力更新模型或扩大样本采集。
不仅是就业数据,美国的通胀数据(CPI)质量也在下降。2025年起,美国统计局已经停止在三个大都市收集价格数据。其余地区的数据质量也在下降。如果在某个具体城市的具体商店(比如纽约市的牛奶)找不到基准价格,统计员会用该城市其他商店同类产品的价格来替代,这叫“本地替代”。如果该城市内也找不到,就用别的城市的数据来代替,比如用波士顿的牛奶价格。这种“跨区域替代”容易引入误差。而这种“跨城市替代”的占比正在上升。
统计局称,到7月时,15%的CPI数据每月都采不到,只能替代。分析师Omair Sharif指出,这个15%还不包括被放弃的那三座城市,加上它们,大概19%的数据是补上去的。他还说,疫情前,只有约2.5%的价格是替代的。如今的变化非常大,虽然具体误差难以精确计算,但CPI报告的误差范围肯定是变大了。
虽然数据问题越来越明显,但这并不意味着美国的统计系统已经崩坏。数据仍然基于透明流程采集,并由大量独立统计员交叉核查。全面造假几乎不可能,因为不同部门、不同指标之间存在大量交叉验证,一旦篡改,很容易被其他系统戳穿。私营部门数据正在补充政府数据,例如信用卡消费、在线招聘、卫星图像等新型数据源,正在加入建模系统。技术进步也带来了希望。数字经济下的行为数据(比如电商、社交平台、企业ERP系统)可能成为未来更可靠的自动数据源。
所以真正的解决方案,不是甩锅,而是投资统计能力。如果特朗普政府真想解决数据质量问题,正确的做法应该是投资统计系统,而不是甩锅开人。提升统计局预算,增加调查人员,重建模型系统,鼓励技术部门与私营机构合作接入新型数据源。这才是长久之计,而不是将系统性误差政治化。