ReadCai财经资讯
当前位置:首页 » 13. 科技 » 人工智能

马斯克旗下xAI发布新大模型Grok 3性能强大

2025-02-24

数据:

Grok 3采用20万颗英伟达GPU训练,MMLU得分已追上ChatGPT。

线索:

Grok 3所采用的算力堆积策略表明,算力依然是推进人工智能模型发展的重要因素。行业人士普遍认为,算力的提升使得模型能力得以快速增强,但也需注意伴随而来的高成本和潜在的技术门槛。同时,尽管缩放法则的适用性受到质疑,目前Grok 3的表现显示出此法则依然有效,因此在投资上需关注相关算力资源的开发。

正文:

特斯拉创始人埃隆·马斯克旗下的xAI于2月18日推出了其最新的大模型Grok 3,尽管Grok起步较晚,但在大规模多任务语言理解基准测试(MMLU)中,其得分已与ChatGPT相当。Grok 3及其轻量化版本Grok 3 mini在性能上超过或媲美多个竞争对手,包括Gemini、DeepSeek和GPT-4o。

Grok 3在xAI的Colossus超算中心进行训练,这一超级计算中心的算力翻倍,英伟达GPU数量达到20万颗。这一成果让许多业内人士对“大力出奇迹”的算力堆积路径重新充满信心,分析家表示Grok 3证明了在达到效益上限之前,还有发展空间,这一结论对于行业而言是积极的信号。

前OpenAI研究员Andrej Karpathy已成为Grok 3的首批用户,他对Grok 3表现出赞赏,特别是在逻辑推理能力上,并指出其性能够与OpenAI的o1-pro模型相媲美。不过,他亦提到Grok 3在某些功能(如DeepSearch)上存在一定局限性,例如时常出现的幻觉和事实错误。

许多科技分析人士认为,Grok 3的成功主要依靠算力的多重堆积,Chris McKay指出,xAI在短短一年多的时间内迅速发展的AI技术得益于创新的计算基础设施和对计算资源的访问。此外,沃顿商学院的教授Ethan Mollick也认为,当前的人工智能行业依然在快速发展,而算力和人才是关键。

Shelly Palmer认为,尽管护城河不深,但足以让初创企业难以逾越。公共信息显示,OpenAI训练GPT-4耗费了大约2.5万张A100 GPU,而Grok 3的高达30亿到50亿美元的投资,足见其对算力的重视。

一些专家指出,随着DeepSeek的崛起,缩放法则的适用性可能会受到挑战。对此,科技博主Zain Kahn强调,Grok 3的表现显示出算力投入的意义,并指出xAI的Colossus超算集群将大模型的能力提升到了新的高度,因此,预训练的扩展还有待开发的空间。

分析机构也对算力的作用提出肯定,认为Grok 3的成功表明在算力提升背景下,预训练仍具有突破的可能性。华泰证券的研报中提到,当前在预训练数据上仍存在瓶颈,但合成数据和工程能力优化等方法可能帮助打破这一瓶颈。国泰君安与中信证券也均提及Grok 3的算力资源以及其显著的技术门槛,认为算力与算法同样重要。

发布时间:

2025-02-20 17:59:06

相关推荐

评论 ( 0 )

3.2 W

文章

58.5 W

点赞

回顶部