ReadCai财经资讯
当前位置:首页 » 13. 科技 » 云服务

火山引擎AI云营收破200亿豆包大模型使用量激增

2025-12-22

摘要

字节跳动旗下火山引擎在AI云市场增长迅猛,其豆包大模型日均token使用量已突破50万亿,同比增长超10倍,超过100家企业客户累计使用量超万亿。根据不同报告口径,火山引擎与阿里云在中国AI云市场形成双强格局,在各自统计维度中均位列前二。2025年火山引擎营收超200亿元,实现翻倍增长。其市场策略包括早期大幅降价(99%)及新推出的“AI节省计划”(最高省47%)。技术层面,公司发布了面向多模态Agent的豆包大模型1.8和实现毫秒级音画同步的Seedance 1.5 Pro视频模型,并升级企业级AI Agent平台AgentKit,旨在降低企业AI应用门槛,推动AI从模型调用向智能体生态演进。

线索

投资机会在于火山引擎通过激进定价策略和系统性方案快速抢占增量市场,其AI原生架构和降低企业使用门槛的“AI节省计划”与AgentKit平台,正抓住B端应用爆发的关键拐点。其营收翻倍的超高增速显示了市场扩张期的强大竞争力。潜在风险包括与阿里云的激烈价格战可能侵蚀利润率,以及对Agent市场未来爆发式增长的预判若未达预期,可能影响其长期战略布局。此外,技术迭代迅速,能否持续保持模型能力和工程效率的领先优势是关键。

正文

市场表现与竞争格局

截至2025年12月,字节跳动旗下火山引擎的豆包大模型日均token使用量突破50万亿,较去年同期增长超过10倍。已有超过100家企业客户累计token使用量超过一万亿。

在市场份额方面,火山引擎与阿里云形成两强争霸局面。双方曾发布机场广告,均宣称市场第一。阿里云依据Omdia《中国AI云市场,1H25》报告,称其“中国AI云市场份额领先,超过第2-4名总和”。火山引擎则引用IDC《中国大模型公有云服务市场分析,2025H1》报告数据,称“占中国公有云大模型市场份额46.4%”。两份报告统计口径不同:IDC仅统计MaaS层外部客户的Token调用量,Omdia则包含全链条Token调用量。在两种口径下,阿里云和火山引擎均位列市场前两名。

火山引擎总裁谭待表示,市场竞争并非关键,当前市场是增量市场而非零和博弈,目标是共同做大市场,加速AI在各行业的落地。

业务增长与市场策略

火山引擎在2025年的营收超过200亿元,相较于2024年的110多亿元实现翻倍增长。虽然整体营收规模与阿里云仍有差距,但其更高增速是更被看重的指标。

为抢占市场,火山引擎自2024年起率先大幅降价,降幅达99%,大幅降低了企业使用大模型的决策门槛。2025年,延续此策略并推出业内首个“AI节省计划”。该计划将所有按量后付费的豆包系列及第三方模型打包,提供统一优惠和阶梯式折扣,企业用量越多成本越低,最高可节省47%的使用成本。

谭待透露,早期token使用量增长较快的行业偏向C端(如互联网、手机、汽车、教育),目前许多B端企业日token使用量已达几十亿级别。他预测未来token使用量将呈现企业80%、个人20%的比例。

产品与技术发布

在2025年冬季FORCE原动力大会上,火山引擎发布了多项产品与技术更新:

* 豆包大模型1.8:该模型面向多模态Agent场景优化,增强了工具调用、复杂指令遵循及OS Agent能力。其核心特点是将所有模型能力(包括LLM、VLM、Thinking版本等)集成于单一API,简化了客户选择和集成流程。

* Seedance 1.5 Pro音视频创作模型:该模型采用原生音视频联合生成架构,实现了毫秒级音画同步输出,支持中文方言、英文及多种小语种。即将上线的“Draft样片”功能允许创作者先生成低分辨率样片预览,关键要素与最终成片高度一致,可帮助创作者提升65%的整体效率,并减少60%的无效创作成本。

* 企业级AI Agent平台AgentKit:该平台进行升级,旨在解决企业在Agent落地中面临的身份权限管理、模型确定性及系统集成等难题,降低Agent开发与运营门槛。火山引擎已在内部业务(如客服、内容审核)中实践Agent,并将经验通过AgentKit输出。

行业趋势与未来展望

谭待认为,传统IT架构已无法满足Agent时代需求,以模型为中心的AI云原生架构正在形成,并围绕Agent的开发与运营重构。他称2025年为“Agent元年”,预计2026年市场将呈爆发式增长。以接触的客户为例,企业开发的Agent数量从2024年的50多个增长到2025年的200多个。

行业竞争焦点已从单纯的模型参数比拼,演变为系统工程的较量。模型本身正从技术工具向“成熟消费品”转变,核心在于开箱即用和能否直接产出“可发布的完整作品”,如视频生成领域的关键竞争点已成为声画同步。火山引擎的工程优化使Seedance 1.5 pro的端到端推理速度提升了超过10倍。

发布时间

2025-12-19T10:48:00+00:00

相关推荐

评论 ( 0 )

3.4 W

文章

62.9 W

点赞

回顶部