数据:
谷歌近日发布了新的 AI 模型 Gemma 3,提供多种参数选择(1B、4B、12B、27B),支持超过 35 种语言,有能力处理图像和文本。Gemma 3 在单个 GPU 上运行效率高,设计用于降低企业成本和能耗。
线索:
Gemma 3 的发布可能为小型模型的广泛应用开辟新的市场机会,满足企业对小型且高效 AI 模型的需求,降低部署和运行成本。同时,这也可能引发对现有大型模型的重新评估,投资者需关注小型模型市场的成长及潜在风险。
正文:
谷歌于 3 月 12 日宣布推出新的开源 AI 模型 Gemma 3,该模型基于 Gemini 2.0 的技术,定位为轻量级模型,适用于手机、笔记本电脑和工作站。Gemma 3 支持超过 35 种语言,拥有文本、图像及短视频分析能力。
Gemma 3 提供多种规模,分别为 10 亿、40 亿、120 亿和 270 亿参数,开发者可以根据设备条件和需求选择合适的模型。谷歌表示,Gemma 3 在尺寸上提供了最先进的性能,超过了多款领先的语言模型,并在测试中表现优秀,排名靠前。
该模型具备多项新功能:
1. 最佳单加速器模型:在 LMArena 排行榜中表现优异,可在单 GPU 环境下运行。
2. 支持 140 种语言:开箱即用支持超过 35 种语言,并对 140 种语言提供预训练支持。
3. 文本和视觉推理能力:可通过这一能力分析图像、文本和短视频。
4. 复杂任务处理:提供 128k token 上下文窗口,支持处理大量信息。
5. 函数调用能力:支持自动化任务及代理式体验。
6. 高性能的量化模型:在保持高精度的前提下,减少模型大小和计算需求。
Gemma 3 与 Hugging Face、Ollama、JAX 和 PyTorch 等开发工具集成,并可通过 Google AI Studio 和 Kaggle 访问。谷歌还表示,正在急招新成员以扩展团队。
此外,随着 AI 模型性能的提升,小型模型的市场需求日益增长,提供了显著的企业应用潜力。谷歌强调,Gemma 3 并非是 Gemini 2.0 的简化版,而是独立训练生成的模型。小型模型的优势包括在资源有限环境中的高效性以及在特定任务中的出色表现,帮助企业在不同场景下更有效地利用 AI 技术。
发布时间:
2025-03-12 20:21:15
评论 ( 0 )