3 月中旬,阿里云、百度智能云先后放了一个消息:AI 产品要集体涨价了,算力、存储、大模型推理服务,全都在涨价名单里。
业内人士普遍认为,这标志着中国云市场正式进入涨价周期。
有趣的是,这消息一出,这边中国用户倒是挺淡定,先慌的居然是美国用户。
你没看错,这些习惯用中国 AI 的美国工程师们,真的有点手忙脚乱。
为什么?得先看看过去两年中国 AI 的价格史。
从 2023 下半年到 2025 年,中国大模型厂商几乎在玩“史诗级打骨折”。
对标 GPT‑4 的主力模型,单价下调 90% 以上,输入价格被媒体调侃成“美国同行的一个零头”。
有的厂商还直接放出大量免费额度,把中小开发者和初创公司全拉进自家阵地。
各种研究报告和评论指出,中国云和 AI 服务长期处于高投入、低价格状态,大模型价格战背后是资本撑着、用规模换市场份额。
行业里调侃一句:“美国在卷算力,中国在卷算力单价。”
也正是在这种背景下,“China’s AI is cheap”几乎成了美国用户的默认印象。
其实,美国用户慌的不只是“价格上升”本身,而是过去两年养成的习惯被打乱了。
根据彭博社记者卢兹·丁(Luz Ding)一年的跟踪报道,中国 AI 企业甚至刻意选在美国开发者的作息时间发布新模型。
目的很明确:方便给太平洋彼岸的开发者留,同时暗示:“来试用我们的模型吧。”
不仅是线上推送,很多厂商还跑到旧金山湾区,扎堆参加技术沙龙、黑客松,甚至举办“麻将之夜”,奖品就是搭载中国模型的云服务免费额度。
效果立竿见影,美国创业者和工程师们很直接:“只要能帮我把 AI 成本砍下来,谁的模型都愿意试。”
Airbnb 首席执行官布莱恩·切斯基(Brian Chesky),也是 OpenAI 创始人萨姆·奥特曼(Sam Altman)的朋友。
他透露,Airbnb 非常依赖阿里巴巴的 Qwen 模型,因为中国 AI 性能好、速度快、成本低。
相比之下,他评价 ChatGPT 时表示:“我认为它还不够好。”
美国风险投资公司 16z 的合伙人马丁·卡萨多(Martin Casado)也观察到,大多数美国 AI 创业者都在用中国模型。
“我估计他们有 80% 的概率在使用中国开源模型。”
投资人 Chamath Palihapitiya(Social Capital)同样坦言,他选择用中国 Moonshot AI 开发的开源模型 Kimi K2 处理公司大部分工作。
因为性能远超 OpenAI,而且价格便宜得多。
甚至在开发者圈里,全球主流 AI 原生代码编辑器 Cursor 的联合创始人阿曼·桑格(Aman Sanger)也公开承认。
他们的新代码模型 Composer 2,其实是基于中国企业“月之暗面”的开源模型 Kimi K2.5 二次开发的,月之暗面方面也确认了双方的授权商业合作。
不只是创业者,学术圈同样热衷中国模型。比如在波士顿大学的一场黑客马拉松上,参会者对中国开源模型青睐有加。
麻省理工学院讲师安德鲁·米德(Andrew Mead)在现场介绍最新中国开源模型。
他运营的 AI 技术趋势通讯《向量实验室》(Vector Lab)一直关注中国大模型的崛起。
米德观察到,这些模型不仅价格低廉,性能在很多指标上甚至接近美国顶级专有模型。
更有哈佛和斯坦福的科研团队采用“混合策略”:先用 Claude 等美国模型搭建项目框架,再把性价比高的中国模型交给具体任务执行。
哪怕第一次跑失败也没关系,因为成本低,可以多次调试,总体成本仍比全程用美国模型划算。
数据也佐证了这种趋势。根据全球最大大模型 API 聚合平台 OpenRouter 的统计。
中国模型使用量从 2024 年几乎为零,到 2025 年 11 月已占平台总流量超过 30%。
在本周的大语言模型热门榜单前十中,中国模型占据七席,小米最近发布的 MiMo‑V2‑Pro 更是位列首位。
所以,当中国云厂商宣布涨价,台下美国开发者慌得很直接:便宜的成本方案没了,议价筹码也弱了,而且全球算力都在涨价。
此外,AWS、谷歌云都在调价,硬件、电力、冷却成本都在涨,原本觉得“有中国模型能避开涨价”的安全区,而如今貌似也不存在了。
而中国 AI 涨价的原因也很现实,AI 推理和大模型训练背后是真金白银的成本。
GPU、ASIC、数据中心、电力、冷却……这些开支压得人喘不过气。
过去靠资本烧钱撑价格,迟早得回到可持续盈利。
这波涨价,对行业其实也有好处。厂商有利润,才能继续迭代和研发;开发者也能明确成本边界,不再抱着“几块钱就能跑千张图片”的错觉。
从长远来看,中美 AI 的竞争焦点也在悄悄变化。
不再是比谁便宜,而是比谁的性能/成本比更高,谁能持续迭代不烧钱,谁能在多云、多模型环境下灵活调度。
编辑:不吃麦芽糖
参考资料:彭博社、chathamhouse、X等相关报道