财经摆渡人
精研出品
破浪前行,共探财富新局
大家好欢迎收看【古今财鉴】
美国这几年对中国AI的围堵,动作可不小。
又是高端芯片禁运,又是闭源模型技术壁垒,摆明了想卡住咱们的脖子。
当时不少人觉得,中国AI发展怕是要慢下来了。
谁能想到,现在风向变了超过一半的美国初创企业,居然把中国开源AI模型当成了开发首选。
这剧情反转得,连我这个常年追科技圈的都觉得意外。
就拿硅谷那些明星公司来说,不是偷偷用,是明着“站队”。
Perplexity这种AI创业独角兽,底层技术直接搭在中国模型上;Airbnb更直接,CEO公开说他们的AI客服系统“重度依赖”阿里的Qwen模型。
我翻了翻硅谷工程师的聊天记录,DeepSeek、GLM、Kimi这些名字,现在跟咖啡一样成了办公室标配。
不光是商业公司,连学术界和芯片巨头都“真香”了。
斯坦福大学搞推理模型研究,直接拿Qwen当基座改;英伟达训练自家AI时,居然用Qwen生成高质量“合成数据”。
这场景挺讽刺的美国想卡中国的算力脖子,结果中国模型反倒成了美国AI的“养料供给者”。
半数美企“用脚投票”,中国模型成硅谷新宠
为什么美国公司放着自家的闭源模型不用,非要千里迢迢用中国的开源货?我找几个创业者聊了聊,答案挺实在,省钱,而且省心。
有个匿名的美国创业者跟我说,他们公司以前用闭源模型,一年光API调用费就得40万美元,切换到Qwen之后,这笔钱基本省下来了。
Dayflow做过测算,闭源模型人均年成本超1000美元,中国开源模型呢?近乎免费。
更重要的是“控制权”。
用闭源模型就像租房子,房东说涨租金就涨,说不让住就不让住。
ChatGPT、Gemini这些“黑箱”,数据传进去怎么处理的、下次升级会不会改规则,企业完全摸不透。
去年有家电商公司,就因为ChatGPT突然调整了回复逻辑,客服系统直接瘫痪三天。
中国开源模型不一样,代码全公开,想怎么改怎么改,数据也不用给别人,安全感这块拿捏得死死的。
美国企业的选择,本质上是市场规律在起作用。
企业要活下去,就得算经济账、安全账。
中国开源模型把AI从“论克卖的脑力黄金”,变成了“按吨卖的算力钢材”,价格亲民还管够,换谁不心动?
从“卡脖子”到“反哺”,开源如何破解围堵困局
这事儿说起来也挺有意思,中国开源模型能有今天的底气,某种程度上还得“感谢”美国的围堵。
前几年美国限制高端GPU供应,中国团队训练大模型时,算力那叫一个紧张。
没办法,只能在算法上死磕怎么用更少的算力跑出更好的效果?怎么让模型更轻量、更高效?
DeepSeek就是个典型例子。
人家团队用560万美元就训出了高性能模型,这成本在美国同行看来简直是“不可能完成的任务”。
他们搞的MoE、MLA这些算法,说白了就是“用算法压榨算力极限”。
反观美国企业,算力充裕惯了,反而少了这种“抠门”的动力,不少项目沉迷烧钱拼参数,结果泡沫一吹就破。
现在中国模型不光是工具,慢慢成了“基础设施”。
就像当年的Android系统,全球开发者都在上面搭应用,最后形成谁也离不开的生态。
现在全球百万级开发者基于中国开源模型二次开发,等于在给中国主导的技术范式“投票”。
李开复之前说“世界大模型竞赛的关键是开源与闭源的路线之争”,现在看,这话可能真说对了。
美国想靠技术壁垒围堵中国AI,结果中国用开源这条路子,把技术变成了全球共享的“公共产品”。
你越堵,我越开放;你搞闭源垄断,我搞生态共建。
这种以柔克刚的打法,怕是美国当初没料到的。
说到底,技术的终极价值是服务创新,不是用来搞封锁的。
中国开源AI模型能逆袭,靠的不是谁给谁“施舍”,是实打实的市场竞争力成本低、效率高、更自由。
现在全球AI生态里,中国模型已经从“可选工具”变成了“刚需基建”。
这故事告诉我们,想靠堵路拦住技术进步?难。
毕竟,好东西,谁用谁知道。