ReadCai财经资讯
当前位置:首页 » 13. 科技 » 人工智能

Scaling Law演化AI巨头持续加码算力投资

2026-01-06

摘要:近期关于AI领域Scaling Law(扩展定律)是否失效的讨论,核心结论是其并未失效,而是演进为更复杂的形态。关键证据包括:谷歌Gemini 3模型通过在预训练与后训练阶段的“配方升级”,实现了显著性能跃升,证明扩展依然有效;行业巨头(如xAI、OpenAI、微软)正以前所未有的规模投入数千亿美元扩建算力基础设施;英伟达CEO黄仁勋提出扩展已分化为预训练、后训练、推理时计算三条并行曲线;Sam Altman指出模型智能与投入资源的对数成正比。同时,以DeepSeek为代表的中国公司通过算法与工程优化提升了算力效率,但同样承认长期发展仍需扩大算力投入。各方立场与其商业利益紧密相关。

线索

* 投资机会

1. 算力基础设施:无论扩展定律的具体形态如何演变,对更大规模、更高效算力的需求是确定性的。投资机会存在于高端GPU、数据中心、能源与电网升级(如马斯克所警示的瓶颈)等核心硬件与设施领域。

2. 算法与工程优化:在同等或受限算力下,通过架构创新、数据处理技术、训练方法(如后训练阶段的RLHF、DPO)提升模型性能的路径价值凸显。专注于提升训练效率、降低推理成本的技术公司具备投资潜力。

3. “后训练”与“推理时”扩展:随着预训练数据瓶颈显现,对模型进行专业化微调(后训练)以及通过增加计算量提升单次回答质量(推理时计算,如o1模型)成为新的扩展前沿,相关工具与服务市场可能增长。

* 潜在风险

1. 资本壁垒与赢家通吃:扩展已成为“重资产游戏”,千亿美元级别的持续投入可能将大部分竞争者排除在外,导致市场高度集中,后来者或资金有限的参与者面临巨大压力。

2. 技术路径风险:当前主流扩展路径(以LLM为核心)可能并非通向AGI的唯一或最佳路径。“世界模型”等替代性架构(如Yann LeCun、李飞飞所倡导)若取得突破,可能颠覆现有投资逻辑与市场格局。

3. 回报不确定性:尽管扩展仍在继续,但性能提升的斜率(对数关系)可能无法匹配市场预期的高估值与巨额资本开支速度,存在投资回报不及预期的风险。

正文

近期,人工智能领域围绕Scaling Law(扩展定律)是否面临瓶颈或已失效存在广泛讨论。一种观点认为,单纯通过增加数据、模型参数和计算量来提升模型性能的简单范式收益正在递减。这种看法源于对过去一段时间内一些模型升级未能带来预期中颠覆性体验的观察,以及有观点指出行业正从“扩展时代”回归“研究时代”。

然而,谷歌发布的Gemini 3模型提供了反证。该模型并非依赖全新架构,而是通过对预训练和后训练两个阶段的方法进行系统性改进,实现了显著的性能跃迁。其联合负责人指出,这是他们所见过最大的一次版本间性能提升,并且“看不到任何墙”。这表明,在算法持续优化的前提下,扩展定律依然有效。

与此同时,主要人工智能公司正在加大算力投入。例如,xAI计划将其超算集群的GPU规模从20万块扩展至100万块;OpenAI、Anthropic、微软等公司也宣布了数千亿美元规模的数据中心建设计划。这些大规模投资行为本身,即是对扩展定律持续有效性的赌注。

对扩展定律的当代理解已超越单一维度。有观点将其系统性地归纳为三条同时起作用的扩展曲线:1) 预训练扩展:使用更多数据和算力训练更大的基础模型;2) 后训练扩展:通过人类反馈强化学习(RLHF)、直接偏好优化(DPO)等技术,在预训练后对模型进行微调与对齐;3) 推理时扩展:在模型回答问题时投入更多计算资源进行“思考”,以提升单次输出的质量,例如一些专门的推理模型。

另有观点认为,算力增长的核心价值在于加速研究实验的迭代周期。更多的算力意味着能够更快地进行试错、验证新想法,从而催生更好的算法,最终实现模型能力的提升。从这个角度看,扩展不仅是资源的直接转化,更是推动算法进步的“实验加速器”。

行业不同参与方基于其自身立场与利益,对扩展定律持有不同论述。硬件供应商(如英伟达)自然乐见任何形式的扩展需求。主要模型公司因其已做出巨额基础设施投资承诺,必须维护扩展有效性的叙事以支撑估值与信心。另一方面,一些新兴研究机构或持有不同技术路线的团队(如专注于“世界模型”或安全超级智能的机构),则可能强调基础研究或架构创新的重要性,这既是技术判断,也构成其差异化的竞争策略。

中国人工智能公司,以DeepSeek为例,在过去一年中展示了通过卓越的算法优化和工程能力,在相对有限的算力预算下取得竞争力的成果。这被解读为一种高效的扩展路径。然而,其技术报告也明确指出,模型在某些方面的不足根本上源于总训练算力与前沿闭源模型的差距,而要弥补这一短板,仍需扩大预训练算力投入。这反映了在算力可能受限的背景下,追求极致效率与最终仍需面对算力门槛的现实处境。

综上所述,Scaling Law并未失效,但其内涵与实现方式正在发生深刻演变。过去简单粗暴的“堆料”式扩展确实遇到瓶颈,但扩展的战线已经拓宽至预训练、后训练和推理计算等多个阶段。算力的角色也从性能的直接燃料,转变为驱动算法创新与实验迭代的基础设施。对于行业领导者而言,持续扩展不仅是技术追求,也由巨大的沉没投资所驱动。核心问题已不再是扩展是否有效,而在于性能提升的速度与曲线形态,能否支撑当前行业的投资规模与预期。目前,所有迹象表明,扩展的时代仍在继续。

发布时间:2026-01-05T15:24:20+00:00

相关推荐

评论 ( 0 )

3.6 W

文章

72.1 W

点赞

回顶部