数据:
Mistral Small 3模型,包含240亿参数,速度优于Llama 3.3 70B和OpenAI GPT-4o mini。
线索:
Mistral Small 3的推出可能为中小企业和开发者创造新的AI技术应用机会。由于性能优于许多现有模型,投资者可关注与人工智能相关的硬件、软件开发及开源技术的未来前景。然而,由于该模型仍处于开发早期阶段,尚未广泛应用,存在不确定性风险。
正文:
欧洲领先的人工智能公司Mistral AI推出了名为Mistral Small 3的新模型。该模型包含240亿个参数,性能与Llama 3.3 70B和Qwen 32B等大型模型相当,尤其在MMLU-Pro基准测试中表现突出。Mistral Small 3的运行速度与Llama 3.3 70B相接近,甚至更快。
在ChatGPT的常用模型中,GPT-4o mini是用户在使用完GPT-4o后备选的模型。据说Mistral Small 3的性能甚至优于这一OpenAI模型,其延迟也较低。
Mistral AI表示,他们在Apache 2.0下提供了Mistral Small 3的预训练和指令调整检查点,这可以作为进一步研究和开发的基础。需要强调的是,Mistral Small 3在训练过程中未使用强化学习或合成数据,因此在模型制作流程中相对较早。该模型可作为构建累积推理能力的基础,预计会吸引开源社区的采用和定制。
Mistral Small 3作为一个小型模型,具备在高配置计算机上本地运行的潜力,比如在配备了NVIDIA RTX 4090显卡或32GB内存的MacBook上运行。
尽管在MMLU-Pro基准测试中的表现超越多款其他模型,Mistral Small 3并非所有人类评估员的首选。在对超过1000个专有编码和通用提示的对比中,Mistral Small 3被认定为与Gemma-2 27B和Qwen-32B相比的首选,但在与Llama 3.3 70B和GPT-4o mini的比较中,其首选度则相对较低。
目前,Mistral Small 3以mistral-small-latest或mistral-small-2501的形式在平台上提供。
发布时间:
2025-01-31 16:53:00
评论 ( 0 )