摘要:谷歌发布Gemini 3后,其市值一度增长超5000亿美元,而同期英伟达市值蒸发约6000亿美元,引发市场对算力硬件范式从通用GPU转向专用ASIC(如TPU)的讨论。在相关讨论中,专家指出,在AI模型高速迭代的当前阶段,GPU因其通用性仍具核心优势。同时,虽然主流模型架构正趋于基于Transformer的变体,但其在支撑下一代智能体(Agent)时存在长文本下“智商掉落”的根本缺陷,未来架构可能向非线性循环神经网络(Non-Linear RNN)演进。此外,开源模型因竞争格局和客户对数据可控、成本的需求,预计将持续存在。
线索:当前AI基础设施领域存在多重投资线索与风险。在硬件层面,关注GPU通用性叙事与专用芯片(ASIC/TPU)渗透率之间的动态平衡,模型迭代速度是关键变量。算法层面,Transformer架构的潜在瓶颈与下一代架构(如Non-Linear RNN)的探索,预示着底层技术的变革风险与机遇。开源模型生态的壮大,为基于其上的工具链、优化服务及行业应用公司创造了机会。长期看,能源(如可控核聚变)与网络通信技术是支撑万卡级集群和算力规模扩张的硬约束,相关领域的突破将直接影响AI发展天花板。
正文:
谷歌发布其年度旗舰模型Gemini 3后,资本市场出现显著波动。谷歌市值一度增长超过5000亿美元,而同期,以GPU为主的算力供应商英伟达市值则蒸发约6000亿美元。这一市值“剪刀差”现象,引发了关于AI算力硬件范式是否会从通用GPU转向专用ASIC(如TPU)的讨论。
针对这一问题,相关行业人士发表了看法。沐曦股份的孙国梁认为,GPU的叙事依然稳固。他指出,GPU和ASIC是并存已久的硬件架构。在当前AI模型高速迭代、更新周期可能短至数周的阶段,GPU的通用性是其最大优势,能更好地适应层出不穷、高度碎片化的客户应用场景。对于英伟达的市值波动,他认为这可能是资本市场的一种调整方式。
硅基流动的胡健从模型基础设施的角度分析指出,虽然新模型不断涌现,但市场调用呈现“二八定律”,主要集中在少数几个主流模型上。更重要的是,当前模型结构正趋于“逐渐稳态”,大多是基于Transformer架构的变体。这种稳定性有利于国产芯片进行优化和追赶。他透露,在帮助国产芯片对标英伟达的工作中,约70%如量化(特别是FP8精度支持)、计算图优化等方案是通用的,其余30%需针对特定芯片瓶颈做联合优化。
在算法架构层面,阶跃星辰的张祥雨提出了对当前主流范式的深刻质疑。他认为,尽管模型架构在趋稳,但很可能处于巨大变革的前夜。现有Transformer架构无法支撑追求无限上下文的下一代通用智能体(Agent)。核心问题在于,随着输入上下文长度的增加,模型的性能(“智商”)会快速下降,这被形象地称为“智商掉落”。其根本原因在于Transformer单向的信息流机制,无法有效建模长期的、复杂的记忆。他的研究显示,未来的架构极有可能是短窗口Transformer与一个巨大的、非线性的循环神经网络(Non-Linear RNN)相结合,以分别建模短期记忆和长期记忆,但这将带来软硬件协同设计的巨大挑战。
讨论还涉及了能源与网络等底层设施。能源方面,可控核聚变的研究近年来因AI的助力(如AI for Science用于材料发现、强化学习用于等离子体控制)而加速,其突破对解决未来算力能耗问题至关重要。网络方面,实际支持大规模模型训练和推理的集群已达数千卡规模,构建覆盖不同层级的高效互联网络是基础设施的关键组成部分。
关于开源与闭源模型的竞争,胡健分析了其存在的逻辑。他认为,开源往往是市场第二、三名企业为了对抗头部闭源巨头、扩大生态而采取的策略,类似于安卓对抗iOS。从需求端看,企业客户出于数据隐私、成本控制和避免供应商锁定的考虑,也会推动开源模型的持续发展,并有望形成独立的商业模式。
最后,对于智能发展的路径,张祥雨提出了一个分析框架:横轴是智能进化,从基于下一个词预测(NTP)的聊天机器人,到基于可验证奖励强化学习(RLVR)的推理者,再到未来的具备自主与在线学习能力的智能体;纵轴是模态扩展,从文本、多模态到具身智能。在此框架下,其团队发布的手机端智能体GELab-Zero,旨在探索虚拟世界具身(操作手机GUI)这一环节,并采用了端云模型协同训练的技术路径。
在图像生成领域,张祥雨提到,当前主流的扩散模型(Diffusion)框架在部分研究者看来并非最优路径,因为其“加噪-去噪”过程缺乏明确的语义。当前的研究趋势一是为该框架注入更多语义,二是探索更端到端的简化框架,三是直接提升模型的单步推理能力。
发布时间:2025-12-22 08:18:19



评论 ( 0 )