ReadCai财经资讯
当前位置:首页 » 13. 科技 » 人工智能

智谱AI与MiniMax通过港股聆讯,大模型行业转向商业化落地

2025-12-30

摘要

近期,智谱AI与MiniMax两家大模型公司通过港交所上市聆讯,但其财务数据显示行业面临严重亏损:智谱2022年至2025年上半年累计亏损超62亿元,MiniMax累计亏损超87亿元。尽管面临巨大的资金压力,文章通过回顾亚马逊、特斯拉及云计算等科技行业早期同样经历长期亏损的历史,指出当前亏损可能是在构建不可替代的基础设施能力。大模型已展现出强大的跨行业赋能潜力,尤其在智能驾驶领域推动了技术范式变革。全球大模型技术竞争激烈,迭代迅速,头部厂商正从底层模型优化转向应用与生态建设,行业竞争焦点逐渐从“模型能力”转向“产品与商业化”。

线索

* 投资风险

1. 持续亏损与资金压力:头部公司巨额亏损且盈利模式尚不清晰,上市融资可能为缓解资金压力,投资者需警惕持续的“烧钱”模式。

2. 技术路径不确定性:Transformer架构虽为主流,但Diffusion等新架构正在兴起;Scaling Law重心向后训练转移,算力需求激增,技术路线的快速演变带来不确定性。

3. 算力竞赛与壁垒:海外厂商在高密度算力集群上具备优势,国内厂商虽在架构优化上创新,但算力约束可能成为长期发展的瓶颈。

4. 应用与商业化挑战:技术优势向商业成功转化存在鸿沟,产品体验、生态构建和实际盈利能力是下一阶段的核心考验。

* 投资机会

1. 历史规律的启示:科技浪潮早期普遍亏损,关键在于投资是否构建了系统性能力(如基础设施、规模制造)。大模型作为新兴的通用智能基础设施,具备类似潜力。

2. 基础设施属性:大模型正在成为像云计算一样的基础设施,赋能千行百业(如智能驾驶、行业解决方案),其通用性和不可替代性奠定了长期价值基础。

3. 应用层机会涌现:随着底层模型架构趋向统一,竞争焦点转向上层应用、产品化及生态。在特定垂直领域具有强大落地能力和商业闭环的公司可能迎来机会。

4. 产业链带动效应:大模型发展强力驱动算力(芯片、云计算)、数据、终端应用等整个产业链的迭代与投资机会。

正文

近期,智谱AI与MiniMax两家专注于大模型研发的公司先后通过港交所的上市聆讯。根据公开的财务信息,智谱AI在2022年至2025年上半年期间累计亏损超过62亿元人民币;MiniMax在2023年、2024年分别亏损2.69亿美元和4.65亿美元,2025年前九个月亏损5.12亿美元,累计亏损超过87亿元人民币。

科技行业在发展初期经历长期亏损并非罕见现象。例如,亚马逊公司自1997年上市后连续多年净亏损,至2003年才首次实现全年盈利,其间累计亏损超过210亿元。特斯拉公司在2003年至2019年间累计亏损超过420亿元,并一度面临破产风险。云计算行业在2006年至2010年期间也曾长期亏损且不被市场看好。分析认为,这些案例的共同点在于,早期的亏损持续投入于构建难以复制的系统性能力,如亚马逊的物流与云基础设施、特斯拉的规模化制造与电池技术、云计算的数据中心与调度系统。一旦这些基础设施成型,盈利拐点可能以非线性方式出现。

大模型,即通过海量数据与算力训练、具备通用认知与生成能力的人工智能模型,正展现出广泛的行业赋能潜力。一个典型案例是智能驾驶领域的技术演进。2021年,特斯拉引入了BEV(鸟瞰图)视角与Transformer模型相结合的解决方案,提升了环境感知与决策能力。此后,行业技术路径向端到端架构发展。2024年,华为发布了“乾崑ADS 3.0”架构,采用GOD、PDP、本能安全三网协同的端到端大模型。小鹏汽车发布了整合XNet、XPlanner和XBrain的端到端大模型XNGP+。理想汽车推出了OneModel端到端与视觉语言模型(VLM)并行的双系统架构。这些技术演进旨在推动智能驾驶向更高级别(如L3)发展,并进一步探索引入VLA(视觉-语言-动作)大模型以提升系统的认知与决策能力。大模型的发展也同步拉动了对车载算力芯片和云计算资源的投入。

从全球视野看,大模型领域的头部玩家主要集中在中美两国。海外代表性公司包括OpenAI、xAI、Anthropic和Google;国内则在模型性能上表现突出的有DeepSeek、阿里的Qwen系列、智谱的GLM系列,以及Kimi、MiniMax等。当前主流大模型仍以Transformer架构为核心。在技术迭代路径上,Scaling Law(规模定律)显示出从扩大预训练算力(Scaling Law 1.0)向后训练与强化学习投入更多资源(Scaling Law 2.0)迁移的趋势,例如xAI的Grok系列迭代。与此同时,Diffusion架构在视频生成(如Sora)乃至文本生成(如Google的Gemini Diffusion、字节的Seed Diffusion)领域也展现出潜力。

由于算力资源的相对约束,国内部分头部厂商致力于通过架构优化来提升效率。例如,DeepSeek V3.2引入了动态稀疏注意力(DSA)机制,显著降低了训练与推理成本。Kimi的K2模型在MoE(混合专家)结构、注意力头优化等方面进行了改进,在控制成本的同时提升了参数效率。

目前,行业出现的一个趋势是推理与非推理模型的统一。例如,GPT-5尝试用统一架构实现快思与深思的协同,DeepSeek V3.1也落地了混合推理架构。随着底层模型技术逐步成熟并趋向统一,头部厂商的研发重心正逐步从纯粹的模型能力竞争,向上层应用探索、产品体验优化及生态体系建设转移。

发布时间:2025-12-29 08:18:40

相关推荐

评论 ( 0 )

3.5 W

文章

69.6 W

点赞

回顶部