ReadCai财经资讯
当前位置:首页 » 13. 科技 » 云服务

豆包大模型大幅降价争夺市场份额

2025-06-16

数据:

豆包大模型1.6的输入价格为0.8元/百万tokens,输出价格为8元/百万tokens,较豆包1.5下降63%。Seedance 1.0 pro生成每条5秒1080P视频的成本为3.67元,较市场价格便宜70%;豆包大模型日均tokens使用量超过16.4万亿,较去年增长137倍;豆包大模型在中国公有云市场占比高达46.4%。

线索:

豆包大模型的降价策略和新的定价机制可能为企业降低使用成本带来机会,同时也会对云服务提供商之间的竞争产生影响。降价虽然能够吸引更多企业使用,但也可能导致盈利能力下降。此外,若火山引擎无法持续优化运营,且市场需求未能持续增长,则可能带来经营风险。

正文:

豆包系列大模型的价格再次大幅降低,同时其定价策略也发生了诸多新变化。在火山引擎Force原动力大会上,火山引擎总裁谭待发布了豆包大模型1.6、视频生成模型Seedance 1.0 pro等新模型。豆包大模型1.6的创新之处在于引入了按“输入长度”区间进行定价的方式。对于企业常用的0-32K输入区间,费用为0.8元/百万tokens,输出8元/百万tokens,成本已比豆包1.5降低了63%。这将使得企业能以仅三分之一的价格获取更强大且支持多模态的新模型。

Seedance 1.0 pro的收费为每千tokens1分5厘,这意味着生成一条5秒的1080P视频仅需3.67元,价格比市场上的同类服务便宜约70%。根据计算,企业可用1万元生成2700条5秒的1080P视频,显著低于人工制作成本。

豆包大模型最早是在一年前率先降价,并将Token的定价降低了一个数量级,引发了整个大模型行业的降价潮。谭待在谈及此次降价时表示,豆包大模型1.0在结构和工程上经过大量优化,价格降幅超过99%。此次则侧重于优化企业使用中最常见的32K范围的成本,并对商业模式进行了创新。

在定价策略的制定中,豆包大模型识别到用户在使用相同模型尺寸和参数时,开关深度思考或图像理解对成本影响较小,而主要决定成本的因素是上下文窗口的长度。上下文窗口是模型在生成回答或理解输入时所能关联的历史对话记录及前文内容的最大长度,直接影响到数据处理的成本。

许多企业的输入长度存在集中分布,但偶尔会有较长的输入任务。若长短输入混合处理,会导致模型不能高效运作。火山引擎通过PD分离策略,将不同长度的请求进行分组、调度,这样可以提升模型处理效率,就如同快递公司将不同尺寸的物品分类打包以节省材料和空间。

豆包大模型1.6在常用的0-32K输入区间内大幅降低了价格,但在长度超出该范围的输入时,成本会显著增加。在32K-128K的输入成本达1.2元每百万tokens,输出16元,而128K-256K范围内的输入费用为2.4元,输出24元。整体的上下文窗口成本定向优化和精细化运营将大幅提升模型服务的效率及可持续性。

豆包大模型的价格再次降低,旨在抓住Agent规模化应用所带来的新机会。由于Agent在每次任务执行中会消耗大量tokens,降低模型使用成本是推动其规模化应用的关键。谭待提到,火山引擎需先完善云基础设施,同时围绕Agent开发相关平台和工具。

他透露,火山引擎设定了激进的市场目标,以满足日益增长的AI需求。与此同时,火山引擎的市场份额在过去一年内已有显著提升,当前豆包大模型在中国公有云市场的份额达到46.4%。在Agent应用方面,火山引擎借助降价措施推动其普及。

今年初,字节跳动推出的AI编程产品TRAE已经成为AI类工具中的一员,与Cursor、GitHub Copilot等竞争。豆包大模型1.6在AI coding方面的能力较以往显著提升,支持处理大规模项目和复杂逻辑链。此外,TRAE内测超过80%的工程师在使用该工具,整体的月活用户已突破百万。

同样,火山引擎也寄希望于通过外部合作伙伴推动其他Agent应用的发展。谭待表示,AI时代的主体将是Agent,而火山引擎希望能通过大幅降价再一次促进Agent AI的普及与应用。

发布时间: 2025-06-12 18:46:01

相关推荐

评论 ( 0 )

2.9 W

文章

42.9 W

点赞

回顶部