DeepSeek低成本方案打破AI大模型Scaling Laws,英伟达股价暴跌20%
长期以来,AI大模型的发展遵循着 Laws。这一规律指出,当模型参数规模、训练数据量和AI芯片同步扩大时,模型的智能表现会呈现指数级跃升,甚至出现“智能涌现”现象。简而言之,越想训练出优秀的大模型,就需要越多的AI芯片。过去几年,科技巨头争相买入AI芯片,以期望能训练出超越同行的AI大模型。然而,的低成本方案却打破了这一叙事。
首当其冲受到影响的就是英伟达。其在2025年1月27日股价一度下跌超过20%,市值蒸发约6000亿美元。美国投资人 表示,的低成本路线摧毁了 Laws,行业长期存在算力浪费,硬件优势可能被效率优化取代。
然而,事实真的如此吗?
众所周知,大模型可以划分为训练和推理两个阶段,前者的目标是通过向模型输入大量数据,优化调参,得到一个可用的模型,后者是利用训练好的模型来解决实际问题。的创新是以捷径降低训练成本,而面向广大下游的推理场景,缺口仍然存在。
事实上,训练成本每年都在降低。美国著名投资人Cathy Wood表示,AI训练成本正以年均75%-78%的速度急剧下降,这一趋势远超传统行业预期。成本下降的来源取决于硬件效率提升(如英伟达架构)、算法优化(如MoE混合专家模型)及开源生态的繁荣。让训练成本大幅下降,但却并非唯一因素。
Cathy Wood还认为,低成本训练能力使初创企业和中型科技公司能够以更低成本参与AI竞争,直接促进AI在医疗、金融、自动驾驶等领域的落地。而下游推理市场的百花齐放,也正需要无穷无尽的算力。从某种意义上来说,加速了AI芯片市场从训练到推理的转移,而推理所需的AI芯片,毫无疑问是更大的市场。
英伟达CEO黄仁勋表示,AI市场的竞争焦点正从训练转向推理,而推理阶段的算力需求将远超预期。在昨日的第四季度业绩说明会上,他表示未来推理市场将会是现在训练市场的百万倍。同时,他提出“第三扩展定律”,即模型在生成高质量回答前需进行多次迭代推理,这一过程本质是计算密集型的。而AI应用的爆发(如自动驾驶、医疗诊断)将推动推理算力需求持续攀升,的普及反而会因降低行业门槛扩大整体市场规模。
在讨论是否会讨论算力市场骤降之前,我们可能忽略了一个前提,-R1并非终局。-R1仅仅是一个对话模型,不具备多模态功能,并且离终极目标AGI也相差甚远。针对推理的AI芯片固然会迎来大发展,而-5、-R2、Grok-4等海内外优秀的大模型尚在迭代,针对训练的AI芯片也会维持高速增长。
02 云厂商在做什么
美股著名投资人 表示,中国AI公司的出现改变了AI行业格局,可能会使AI市场出现分化,一部分是商品化且竞争激烈的低等级AI产品,另一部分是高端产品。同时,他将AI芯片市场规模预期从5000亿美元砍至3000亿美元,引发的效率革命将终结算力泡沫,AI芯片市场的增长可能并不像之前市场预期的那么乐观。
然而,这一观点迅速被科技巨头的财报驳斥。从常理上看,起码在短期内降低了AI芯片的需求,然而谷歌、微软、亚马逊、Meta这四大云厂商的资本开支却显示,2025年的资本开支将会达到3000亿美元,较2024年还增长了约800亿美元,远超市场预期。
图表 2:北美四大云厂商资本开支(单位:亿美元)
图表 3:2025年以来中国AI芯片领域投融情况