黄仁勋认为,过去一年全世界大多数人对Scaling Law的理解都错了,这是真的吗?
文|《财经》研究员 吴俊宇
编辑|谢丽容
“过去一年,全世界大多数人对Scaling Law(规模定律)的理解都错了。”
3月19日,英伟达创始人黄仁勋在GTC(Nvidia GPU Technology Conference)2025大会提到,Scaling Law正变得更有韧性,算力消耗实际在加速。目前AI推理算力需求量可能是2024年的100倍。
Scaling Law即规模化法则,指大模型性能由算力、模型、数据规模决定。它在2020年被AI创业公司OpenAI前联合创始人伊利亚·苏茨克维尔(Ilya·Sutskever)提出。这是过去三年大模型训练的奠基理论。2022年之后,中美科技公司大模型的发展都基于这一理论:买更多的算力芯片,是提升模型性能的最直接手段。
Scaling Law是英伟达2022年之后高增长的叙事基础。但过去一年,Scaling Law放缓动摇了这一基础——堆算力看起来变得不经济,这让市场质疑,是否还有必要购买更多英伟达的芯片?
今年1月,质疑达到顶峰。因为中国大模型创业公司DeepSeek发布论文称,“用2048张英伟达H800芯片和558万美元训练成本”训练出DeepSeek-V3,这款模型和OpenAI旗下主力模型GPT-4o性能接近。DeepSeek优化了算法结构,而不是堆砌芯片数量。投资者担忧,英伟达芯片销量会受影响。
1月27日,英伟达股价一度单日下跌17%,市值蒸发近6000亿美元(报道详见)。随后一个月,英伟达股价逐渐反弹。
不过,投资者对英伟达的信心并不坚定。英伟达2月26日公布2025财年(英伟达2025财年是2024年1月末至2024年1月末)财报,当年营收1304.9亿美元,同比增长114.2%;净利润728.8亿美元,同比增长148.5%。这是一份亮眼的业绩报告。但财报公布后,英伟达股价仍在下跌。2025年1月至今(截至3月20日),英伟达股价下跌约14.3%。
让投资者重拾信心,英伟达需要用新故事说服客户。
英特尔曾用摩尔定律(半导体芯片晶体管密度每18个月翻一番,性能也随之倍增)说服客户定期采购芯片。摩尔定律因此也被称为“钟摆定律”。
黄仁勋重新解释了Scaling Law,将其称为“终极摩尔定律”——提升推理效率,用单位时间、能源产生更多Token(词元,大模型推理算力计量单位,每个字符、标点都是一个Token)。其中有两个重点:
其一,单个用户每秒生成Token数量。
其二,单位电力下生成的Token数量。
黄仁勋披露了未来的芯片演进路线图,称这会“每年像时钟一样准时更新一次”——每两年一次架构演进,每一年都有新的产品,每次都会有成倍的效率提升。
也就是说,“买的越多,就省得越多。买的越多,就赚得越多。”
重新定义Scaling Law
Scaling Law原本是OpenAI前联合创始人伊利亚2020年在论文中提出的理论。
这一理论影响了大模型产业此后三年的发展路径——大型科技公司(如亚马逊、微软、谷歌、阿里、字节跳动、腾讯等)因此都选择大力出奇迹,用万卡、十万卡训练更大的模型。
但在2024年11月,伊利亚公开反思,过去堆砌算力的暴力手段岌岌可危,需要寻找更高效的替代方案。
最直接的案例是,马斯克旗下创业公司xAI用20万枚英伟达H100/H200系列芯片训练模型,算力规模是上一代模型的10倍,模型性能却只提升了不到20%。与此同时,得益于芯片、模型、算法优化,推理算力成本正以每年10倍的速度下降(微软CEO萨提亚·纳德拉、OpenAI创始人萨姆·奥尔特曼观点)。
因此,提升推理效率被认为是新的优化方向。
2024年9月来,OpenAI o1和DeepSeek-R1这两款推理模型的出现意味着市场技术的方向有所转变——大模型竞争焦点从训练走向推理。国际市场调研机构IDC 2025年报告预测,2027年“训练+推理”的算力大盘中,73%将是推理算力,26%是训练算力。这和过去训练算力占比超过70%,推理算力不足30%的格局截然相反。
英伟达的叙事逻辑也要重写——2025年之前是堆砌芯片数量提升模型性能,2025年之后是提升推理效率、降低推理成本。
这也是黄仁勋在GTC 2025重新解释Scaling Law的核心原因。黄仁勋认为,过去一年全世界大多数人对Scaling Law的理解都错了。目前的推理效率并不高,用户需要花太长时间等待模型响应。未来需要提升推理效率。10倍的Token数量和10倍的计算速度,意味着计算量还将增加100倍。
(图片来源:英伟达)
“黄仁勋版”Scaling Law围绕推理效率展开。他定义的推理效率有两个方向:
X轴,单个用户每秒生成Token数量。
Y轴,单位电力下生成的Token数量。
黄仁勋认为,一个数据中心的收入和利润是由推理效率决定的。X乘Y数值越大,收入就越高。数据中心用越短的时间、越少的能源,生产越多Token,收入就越高。
简单来说,这个逻辑之下,要实现这个目标,就需要购买英伟达最新的芯片。他举例,相同功率下,新一代Blackwell(GB200)芯片的效率是上一代Hopper(H100)芯片的25倍。如果一个100兆瓦功率的数据中心跑DeepSeek-R1,使用H100可以生成3亿个Token,使用GB200可以生成120亿个Token。Token收入将增长40倍。
为推销Blackwell系列芯片,黄仁勋说甚至说,“一旦Blackwell开始规模化出货,Hopper即使免费提供也将无人问津”。
黄仁勋还披露了接下来的芯片演进路线图,称这会“每年像时钟一样准时更新一次”——每两年一次架构演进,每一年都有新的产品线,每次都会有成倍的效率提升。2024年英伟达实现量产的是Hopper(H100、H200)系列芯片,2025年英伟达正在全力量产Blackwell(B100、B200、B300)系列芯片,2026年英伟达将推出Rubin系列芯片。
这个芯片演进路线图还披露了每一代芯片单位算力TCO(拥有成本)。Blackwell相较于上一代Hopper架构,总成本降低了87%。下一代Rubin架构性能预计将比Hopper成本降低99.97%。
(图片来源:英伟达)
英伟达不仅要提升推理效率,还计划帮助企业扩大数据中心规模,建成10万卡、100万卡集群。
过去三年,受困于存储、网络设备的极限性能,单个数据中心训练AI通常只会部署数万枚英伟达芯片。但在黄仁勋的规划中,未来将会有一批部署10万、100万枚英伟达芯片的数据中心。英伟达将与戴尔、惠普等厂商为之提供配套的存储、网络解决方案。目前包括亚马逊、OpenAI、马斯克旗下的创业公司xAI都在建设10万卡集群。10万卡集群同样会带动英伟达的芯片销量。
英伟达管理层2024年财报后电话会议中曾提到,基于Blackwell的算力集群通常10万枚芯片起步。Blackwell系列芯片2024年四季度营收110亿美元。这是英伟达史上销售速度最快的芯片。
黄仁勋披露,2024年美国四大云厂商(亚马逊AWS、微软Azure、谷歌GCP、甲骨文OCI)Hopper系列芯片采购量是130万,2025年Blackwell系列芯片采购量将增长至360万枚。
回归温和增长
在英伟达的新故事中,未来AI推理算力需求量将增长100倍,未来将诞生10万枚、100万枚芯片的数据中心。这是否意味着英伟达还将维持过去三年70%-270%的营收增速?
答案是否定的。
一位芯片技术人士对《财经》表示,单位芯片的推理算力取得百倍增长,并不意味着芯片销量总额也会百倍增长。英伟达的芯片出货量受制于代工生产、市场需求等因素,只会线性增长。
至少在未来1年-2年,英伟达将回归温和增长。3月初,美国金融服务机构摩根士丹利的科技、媒体和电信的主题会议曾邀请英伟达CFO(首席财务官)科莱特·克雷斯(Colette Kress)进行对话。
科莱特·克雷斯透露,要保持我们之前的收入增长非常困难。我们对此非常谨慎。我们可能会在2025年看到35%左右的增长速度。这比2024年略低,但增长仍然相当强劲。
过去五个季度,英伟达营收增速从265%降至78%。它的绝对增速依旧很快,却不断下滑。考虑到英伟达的营收规模基数已经很大,它的营收增速还将继续下滑。英伟达管理层在2025财年报告发布后的投资者电话会预测称,2026财年一季度(即2025年一季度)营收约为430亿美元。英伟达未来一个季度营收增速将继续下滑至65%。
短期内,英伟达的客户结构不会根本改变。英伟达的增长速度,取决于大型科技公司、云厂商的AI芯片采购速度。
英伟达目前近九成收入来自数据中心芯片。科技公司、云厂商(亚马逊、微软、谷歌、阿里云、字节跳动、甲骨文、Meta等)旺盛的芯片采购需求,带动了它的增长。财报显示,2024年财年英伟达数据中心收入1151.9亿美元,同比增长142.3%。数据中心收入占总收入的88.3%。
英伟达管理层在2025财年报告发布后的投资者电话会披露,英伟达数据中心收入的50%来自云服务商。
美国市场,大型科技公司算力采购增速在放缓。美国四大科技公司(亚马逊、微软、谷歌、Meta)2024年资本支出总额2431亿美元,总增速是63%。2025年资本支出总额预计将是3200亿美元,增速将下降到30%(报道详见。
随着大型科技公司高强度资本支出逐步回落到正常水平,英伟达的营收增速也会随之回落。
今年3月,野村中国科技及电讯行业分析师段冰对《财经》表示,科技公司资本支出不可能长期维持在100%、50%以上。过去三年科技公司高强度资本支出,目的还是实现商业化落地。新的转换周期正在到来。未来两年,美国科技公司高强度资本支出还会继续放缓,行业正在进入良性发展阶段。
事实上,狂飙三年的英伟达需要适度降速。这可能对短期增长不利,但更利于它的长期健康发展。
黄仁勋在GTC 2025直言,Blackwell系列芯片推理效率相比Hopper系列芯片效率大幅提升后,公司销售团队对他说,“你正在减少客户的芯片购买量”。但他说,“这是更好的方案”。
英伟达此举被认为更符合客户长期利益。英伟达2024年毛利率高达73%。一家硬件厂商能取得如此高的利润率,这极为罕见。
这带来的诟病是,英伟达被认为过去三年吃掉了AI产业链的利润大头。一位国际云厂商人士对《财经》对此评价,产业链上下游的利益需要平衡。英伟达作为“卖铲子的人”,赚到了AI的第一轮红利。然而,AI应用尚未爆发,下游的厂商、应用厂商还没有赚到足够的钱。芯片厂商作为上游厂商,不能涸泽而渔赚光客户每一分钱。当下阶段,更应该让利下游。
责编 | 王 宁
上一篇:深夜!集体拉升!发生了什么?
下一篇:刚刚,易方达公告!管理团队微调