数据:
阿里云发布了Qwen 2.5-Max模型,预训练数据超过20万亿tokens,在多个基准测试中超过DeepSeek V3和其他开源模型。
线索:
阿里云新发布的Qwen 2.5-Max模型展示出显著的性能优势,这可能会带来一系列投资机会,尤其是在人工智能和云服务行业。企业可利用该模型的API服务,提升自身产品与服务的智能化水平。然而,由于技术的快速发展,保持领先地位所需的持续投资和创新也带来了相应的风险。
正文:
阿里云日前发布了通义千问旗舰版模型Qwen 2.5-Max,该模型是对MoE模型的最新升级,使用超过20万亿tokens的预训练数据进行训练。Qwen 2.5-Max在包括Arena-Hard、LiveBench、LiveCodeBench和GPQA-Diamond在内的多项基准测试中表现出极强的综合性能,并全面超越了全球领先的开源MoE模型DeepSeek V3及最大的开源稠密模型。
目前,开发者可以在Qwen Chat平台免费体验该模型,企业也能通过阿里云百炼平台直接调用Qwen 2.5-Max的API。此外,与其他模型的对比显示,该模型在多项评测中均优于DeepSeek V3、Llama-3.1-405B及Qwen2.5-72B等开源模型。
阿里云将Qwen 2.5-Max与闭源模型GPT-4o和Claude-3.5-Sonnet进行间接对比,尽管无法获取其基座模型数据,该模型仍在11项基准测试中表现优异。
发布时间:
2025-01-28 15:49:00



评论 ( 0 )