周三,在美国华盛顿举行的 AI 峰会上,总统特朗普透露,他曾考虑拆分英伟达以增强人工智能芯片市场的竞争性,不过后来发现 “这事儿不好办”。
据报道,特朗普称,助手们告诉他,拆分英伟达 “难度很大”,原因是该公司在 AI 芯片领域优势显著,其他竞争对手要赶上得花好几年。之后,特朗普对在场的英伟达 CEO 黄仁勋表达了赞赏,肯定其工作成果。
当天,特朗普签署了三项行政命令,还发布了《AI 行动计划》,强调美国要 “不惜一切代价” 在人工智能领域引领全球。这项计划的核心目标是确保美国在 AI 领域的主导地位,为美国企业营造能快速成长和扩张的环境。
特朗普指出,在人工智能问题上,美国必须关注其他所有国家的制度。同时,AI 竞赛需要包括硅谷在内的 “爱国主义” 精神,美国科技公司要把美国放在首位(即美国优先)。
这场由 “All-In 播客” 与 “Hill & Valley 论坛” 联合举办的活动,吸引了多位科技行业领袖出席,共同见证计划发布,其中包括英伟达首席执行官黄仁勋、AMD 首席执行官苏姿丰等科技巨头。
特朗普在讲话中再次提到,他曾想过拆分英伟达来增加 AI 芯片领域的市场竞争,但后来了解到行业实际情况后,发现 “这事儿不好这么做”。
“我当时说‘咱们把这家公司拆分开’,但后来才搞清楚这个行业的实际状况。” 他说道。
他进一步解释,助手们告诉他这么做 “非常难”,因为英伟达在该领域领先优势明显,其他竞争对手追赶需要数年时间。
随后,特朗普对当天在场的英伟达首席执行官黄仁勋赞不绝口:“你做得太出色了。” 在整场讲话中,他多次提及并表扬黄仁勋及其他科技行业领袖对美国的投资。
当天早些时候,黄仁勋在自己的发言环节也对特朗普在人工智能问题上的立场表示赞赏:“美国有一个其他国家都不具备的独特优势,那就是特朗普总统。”
为推进《AI 行动计划》的落实,特朗普当天签署了三项相关行政命令。其中一项是利用美国国际开发金融公司(DFC)和进出口银行,支持美国技术在全球的布局;另一项要求政府采购的所有大型语言模型必须保持中立、无偏见。
白宫人工智能事务负责人萨克斯(David Sacks)透露,未来可能会进一步推动联邦取代州级 AI 政策。他表示:“虽然这份行动计划里还没正式确定相关政策,但我觉得这是未来一两年必须认真研究的问题。”
白宫科技政策办公室主任迈克尔・克拉齐奥斯(Michael Kratsios)则强调了国会的作用,他称:“关于联邦优先权的讨论,很大程度上与国会权限相关。所以我们不会强行推进这方面内容,而是专注于切实能落实的事。”
不过,美国宪法法律学者对媒体表示,特朗普提出的 “AI 中立性” 限制措施在法律上能否成立,存在疑问。
加州大学旧金山法学院教授利特尔(Rory Little)对媒体说:“要是你惩罚自由派软件,却不惩罚保守派软件,那这项行政命令就是基于内容的歧视。”
“我甚至不知道该怎么判断一个软件是自由派还是保守派,” 利特尔补充道,他还指出,美国宪法第一修正案将知识产权视为言论的一种形式,政府不能针对性打压。
但短期内,这项命令的合宪性可能对亚马逊、Anthropic、谷歌、OpenAI、微软和 Perplexity 等正争相向政府提供 AI 系统的公司影响不大。
即便该命令面临法律挑战,AI 开发公司或许也等不起法院的裁决结果。
利特尔表示:“现在很多企业都在努力和特朗普政府达成合作,所以他们没把这些行政命令当成法律,而是当作谈判的起点。”
“如果你是谷歌这样的 AI 公司,可能会尽力和政府协商,找到能继续开展业务的办法,至于外界的政治氛围,只要软件能赚钱,或许根本不在意。”
当天早些时候,特朗普政府发布了《AI 行动计划》,旨在通过放宽监管、增加数据中心能源供应来加快美国人工智能的发展,且在新发布的指导方针中建议,暂停对那些对新兴技术施加过多规定的州的资金支持。
《AI 行动计划》建议改革许可审批流程、简化环境标准,以加速 AI 相关基础设施项目的推进。该蓝图还致力于让美国技术成为全球 AI 的基础。
这份 23 页的计划,是特朗普今年 1 月上任后不久下令制定的,标志着本届美国政府在可能重塑全球经济的人工智能技术领域,出台了最重要的政策指令。
该蓝图兑现了特朗普竞选时的承诺 —— 将美国定位为全球 AI 领导者,同时废除了拜登政府对 AI 监管过严的政策框架:2023 年,拜登政府曾发布一项命令,要求进行广泛的安全测试,并强制主要 AI 开发商发布透明度报告。而特朗普则要求制定新的 AI 政策路径,并给白宫 AI 事务负责人 David Sacks 设定了六个月的完成期限。
新计划建议联邦政府向企业和公众征求意见,了解当前阻碍 AI 应用的监管政策,以此为依据推动法规缩减。白宫预算办公室还将和负责 AI 相关资助的联邦机构合作,若某州的监管制度可能影响拨款成效,将考虑限制该州的资助资格。
指导方针还要求,联邦政府仅与开发 “无自上而下意识形态偏见” 的 AI 模型的公司签约,同时要求在风险管理框架中删除有关错误信息、多样性、公平及气候变化的内容。