数据:
Grok 3采用20万颗英伟达GPU训练,MMLU得分已追上ChatGPT。
线索:
Grok 3所采用的算力堆积策略表明,算力依然是推进人工智能模型发展的重要因素。行业人士普遍认为,算力的提升使得模型能力得以快速增强,但也需注意伴随而来的高成本和潜在的技术门槛。同时,尽管缩放法则的适用性受到质疑,目前Grok 3的表现显示出此法则依然有效,因此在投资上需关注相关算力资源的开发。
正文:
特斯拉创始人埃隆·马斯克旗下的xAI于2月18日推出了其最新的大模型Grok 3,尽管Grok起步较晚,但在大规模多任务语言理解基准测试(MMLU)中,其得分已与ChatGPT相当。Grok 3及其轻量化版本Grok 3 mini在性能上超过或媲美多个竞争对手,包括Gemini、DeepSeek和GPT-4o。
Grok 3在xAI的Colossus超算中心进行训练,这一超级计算中心的算力翻倍,英伟达GPU数量达到20万颗。这一成果让许多业内人士对“大力出奇迹”的算力堆积路径重新充满信心,分析家表示Grok 3证明了在达到效益上限之前,还有发展空间,这一结论对于行业而言是积极的信号。
前OpenAI研究员Andrej Karpathy已成为Grok 3的首批用户,他对Grok 3表现出赞赏,特别是在逻辑推理能力上,并指出其性能够与OpenAI的o1-pro模型相媲美。不过,他亦提到Grok 3在某些功能(如DeepSearch)上存在一定局限性,例如时常出现的幻觉和事实错误。
许多科技分析人士认为,Grok 3的成功主要依靠算力的多重堆积,Chris McKay指出,xAI在短短一年多的时间内迅速发展的AI技术得益于创新的计算基础设施和对计算资源的访问。此外,沃顿商学院的教授Ethan Mollick也认为,当前的人工智能行业依然在快速发展,而算力和人才是关键。
Shelly Palmer认为,尽管护城河不深,但足以让初创企业难以逾越。公共信息显示,OpenAI训练GPT-4耗费了大约2.5万张A100 GPU,而Grok 3的高达30亿到50亿美元的投资,足见其对算力的重视。
一些专家指出,随着DeepSeek的崛起,缩放法则的适用性可能会受到挑战。对此,科技博主Zain Kahn强调,Grok 3的表现显示出算力投入的意义,并指出xAI的Colossus超算集群将大模型的能力提升到了新的高度,因此,预训练的扩展还有待开发的空间。
分析机构也对算力的作用提出肯定,认为Grok 3的成功表明在算力提升背景下,预训练仍具有突破的可能性。华泰证券的研报中提到,当前在预训练数据上仍存在瓶颈,但合成数据和工程能力优化等方法可能帮助打破这一瓶颈。国泰君安与中信证券也均提及Grok 3的算力资源以及其显著的技术门槛,认为算力与算法同样重要。
发布时间:
2025-02-20 17:59:06



评论 ( 0 )