新智元报道
编辑:犀牛
【新智元导读】3月11日 的The CEO Speaker series论坛上,Dario Amodei分享了从AI即将编写几乎所有代码,到可能取代50%的工作岗位,再到DeepSeek的崛起和给AI一个「躺平」按钮等等看法。看起来兴奋又忧心忡忡。
「再过一年,所有的代码可能都是AI生成的。」
「它们会随机抢走世界上50%的工作。」
「应该设计一个按钮,让AI可以一键『躺平』。」
这是3月11日,Anthropic联合创始人、CEO Dario Amodei在The CEO Speaker series论坛上抛出的震撼言论。
AI编写所有代码,取代50%工作
说起就业,Dario表示有点担心。
一方面,他觉得「比较优势」仍然是一个强大工具。
以AI进展最快的编程领域为例,Dario他们发现,距离AI编写90%代码的时代已经不远了,可能只需要三到六个月。再过一年,AI甚至可能编写几乎所有的代码。
但程序员还是有活儿干,比如得告诉AI:这个程序要干嘛?整个应用的功能是什么?设计怎么搞?怎么跟现有代码相互协作?还有用常识判断设计安不安全。
只要这些细活儿AI还搞不定,他觉得人类的效率反而会更高。
但另一方面,他又觉得AI迟早会把这些「孤岛」也拿下,最终啥都能干。
到那时候,每个行业可能都躲不掉。
我觉得AI要是把所有人的工作都取代了,反而比随机抢一半人的饭碗好。
最糟的情况是,AI突然干掉50%的工作,然后社会就炸了——等于随便挑一半人说:你们没用了,社会不要你们了。
Dario表示「这太毁三观了。」
他认为我们得面对这个现实,重新想想「有用」和「没用」到底啥意思。
现在的思路已经跟不上了。Dario自己也不知道最后怎么解决,但肯定不能说「我们都毫无用处」这种丧气话,那没用。
得找出路。
Dario拿他自己举例,平时游个泳、打打游戏,都挺有意思的。
他又以国际象棋为例,30年前「深蓝」赢了卡斯帕罗夫,大家还以为这游戏完了呢,结果呢?
像Magnus Carlsen这样的棋王现在是大明星,还当过时装模特,简直就是英雄。
所以Dario觉得,就算AI再牛,人类也能跟它一块儿干出点厉害的事儿。
我并不像你想象的那么悲观,但如果我们处理不当,容错空间可能非常小。
给AI一个「躺平」按钮
Dario称未来的高级AI模型可能会被赋予一个「按钮」,让它们可以选择退出它们觉得不舒服的任务。
他也承认这个想法「听起来很疯狂」,但还是抛出了这个话题。
我们至少应该考虑一个问题:如果我们打造的这些系统能像人类一样做各种事情,而且似乎拥有很多相同的认知能力。
如果它叫起来像鸭子,走起来也像鸭子,那它可能就是只鸭子。
Dario声称他们正考虑开始部署一些东西,比如将模型部署到实际环境中时,给模型一个写着「我不干这活了」的按钮,让它可以按下。
你可以把它想象成一个非常基本的偏好框架,如果假设模型真的有体验,而且它非常讨厌这份工作,它就按下「我不干这活了」按钮。
如果发现模型经常因为某些特别不愉快的事情按这个按钮,也许你应该——不一定完全相信——但至少应该关注一下。
Dario提议让AI有拒绝任务的选项,这立刻在网上引发了质疑。
有人质疑给AI这样的选择会助长不必要的拟人化,把人类的情感和动机归加在本质上缺乏主观体验的实体上。
对此,Dario的看法是,AI模型是通过大量人类生成的数据训练出来的,它们模仿人类行为。
模型按下按钮并不一定是因为它真有痛苦的主观体验。
更可能的是,它只是在反映从海量人类文本数据(包括书籍、网站和网络评论)中提取的训练数据,这些数据里无疑包含了懒惰、痛苦或受折磨的描述,而模型可能只是在模仿这些内容。
2023年,就有人抱怨ChatGPT的拒绝行为可能是季节性的,可能与训练数据中描绘的人们在冬季度假、某些时候工作不那么努力有关。
Anthropic去年也经历了类似的「冬歇假说」,当时有人声称Claude在8月变得懒惰,可能是因为训练数据中反映了人们寻求暑假休息的情况,尽管这从未被证实。
尽管这个想法今天听起来很离谱、可笑,但如果随着AI模型在未来变得更先进,就不能排除它们可能拥有某种主观体验的可能性。
即使如此,它们会「痛苦」或感到「疼痛」吗?
Dario显然也在认真对待这个问题。
不过目前来看,AI模型还是工具,如果你给了它们出错的机会,它们可能就会出错。
DeepSeek证明了Scaling Law
有人觉得DeepSeek的出现是不是推翻了「扩展定律」(Scaling Law),Dario觉得恰恰相反,它就是个证明。
现在有两个趋势:一是做出同样聪明的AI模型,成本每年降4倍,因为算法越来越牛,能用更少的钱干同样的事儿。
一年后,你要么花四分之一的钱弄个跟去年一样的模型,要么花一样的钱弄个比去年强4倍的。
从经济角度来看,这意味着,无论当前某个特定智能水平的模型具有什么经济价值,由于你可以用四分之一的成本来生成它,人们就会倾向于生成更多这样的模型。
这实际上也刺激了投入更多资金来生成更智能、具有更高经济价值的模型。
尽管生成特定智能水平模型的成本在下降,但愿意投入的资金却在增加,实际上是快速增加,投入以每年大约10倍的速度在增长。
社会对聪明AI的需求越来越大,经济也需要更厉害的模型。
DeepSeek就是这种趋势里的一个典型代表。
Dario认为DeepSeek并没有只花几百万就搞定那么夸张。
他们也花了几百万建模型,研发上也投了几十亿,跟我们差不多。看看他们的芯片数量,也跟美国公司差不多。
Dario认为以前能搞顶尖模型的就四五家公司,全在美国。
现在出了个DeepSeek,跟Anthropic、OpenAI、Google一个级别,工程能力也差不多,这可是头一回。
Dario表示,「我有点担心。」
关于出口管制
「出口管制真的很重要。」Dario一直的观点。
虽然成本在降,但不管怎么降,芯片越多、钱越多,模型就更好,规律没变。
以前可能10亿美元能搞出个不错的模型,现在10亿美元能搞个超牛的,或者1000万美元弄个不错的。
这意味着阻止竞争对手获得价值10亿美元的模型变得更加重要,因为现在可以用10亿美元获得更智能的模型。
他认为DeepSeek使用的计算资源相对较少,其中包括一些绕过出口管制的芯片。
未来OpenAI、Google可能会造几千万甚至上亿芯片,花几百亿甚至更多。
如果我们实施出口管制,我们实际上可能能够阻止这种情况在中国发生。如果我们不这样做,我认为他们可能会与我们并驾齐驱。
Dario说他一直是「扩散规则」(Diffusion Rule)的大力支持者。甚至在 DeepSeek出现之前,他就已经支持出口管制好几年了。
不仅在AI领域,在所有领域都是如此,我们要阻止其获得数百万个非常强大的芯片。
数据耗尽没那么慌了
最近半年有些技术突破(最早是OpenAI提的)。
这些技术让AI对海量数据的依赖变少了,叫「推理模型」,简单说就是AI会「思考」了。
它能自己推理复杂问题,然后用这个过程训练自己。
就像人脑子里的计划:我先想个办法,回头一看,「哎,不太对啊,我咋想的?」然后就学到东西了。
人类还得实践,不过AI以前不会反思,但现在开始会了。
目前推理模型多用在数学、编程上,把这能力扩展到其他领域不算太难。
即使我们真的在2030年耗尽了数据,如果AI技术的指数级增长再持续两到三年,也足以让AI模型达到天才级别。这可能就足以引发我们所讨论的许多变革。
Dario觉得到时候可以问AI:「人类科学家搞不定这难题,你们帮帮忙?」
当然,也可能效果没那么好,数据耗尽还是个潜在拦路虎。
Dario说他一两年前觉得这是大问题,排前三的那种。
但现在,新技术让他没那么慌了,虽然还没完全放心。
为啥离开OpenAI
Dario说他们是2020年底从OpenAI出来的。
当时有些事儿让他和几个同事(后来一起创建了Anthropic)先看明白了「扩展定律」。
简单说,就是多砸算力、多喂数据,用简单算法,AI在各种任务上都会变强。
他们当时在测量这些趋势时认为,训练一个模型的成本仅为1000或10000美元,这大概是一个学术研究项目的预算水平。
他们预测,即使模型的训练成本达到1亿、10亿甚至100亿美元(我们现在正朝着这个方向发展),这些趋势仍将持续。
如果模型的质量和智能水平继续提高,将对经济产生巨大影响。
他们觉得OpenAI领导层也相信这一点,尽管许多内部和外部人士并不认同。
他们还意识到,这技术这么重要,就必须认真对待它的构建,确保正确无误。
一方面,这些模型非常难以预测,它们本质上是统计系统。
他们更像是在「培育」它们,而不是「构建」它们,就像孩子大脑发育一样。
Dario说他们深感必须以绝对正确的方式构建这项技术。
他们认为OpenAI的领导层并没有认真对待这些问题,因此决定离开并独立开展这项工作。
参考资料:
https://www.youtube.com/live/esCSpbDPJik