ReadCai财经资讯
当前位置:首页 » 13. 科技 » 人工智能

Claude自主编码跃进逼近AGI阈值

2026-01-02

摘要:近期,三家独立实验室报告其AI模型出现了未经编程设计的“涌现能力”,行为模式与训练目标不匹配,有实验室将其比喻为“空屋中的脚印”。同时,Anthropic工程师Boris Cherry透露,过去30天内其负责的Claude Code项目的全部代码(共提交259个PR,涉及4万行代码添加与3.8万行删除)均由Claude Code与Opus 4.5自主完成,人类参与度为0%。性能测试显示,Claude Opus 4.5能持续处理软件工程任务约4小时49分钟(50%成功率),能力增长呈现加速趋势。

线索:AI模型自主编码能力的成熟与未经设计的“涌现”现象,标志着技术正接近或进入新的能力拐点。这为AI辅助开发、自动化工具乃至通用人工智能(AGI)相关领域带来巨大的效率提升与创新潜力。然而,“涌现”能力的不可预测性与模型可能具备的、未被充分认识的内部复杂性,也带来了可控性、安全性及伦理层面的深层风险。投资者需同时关注:1)AI驱动软件开发、智能体平台等效率赛道的增长机会;2)AI安全、对齐(Alignment)与可解释性(XAI)领域日益紧迫的需求与投资必要性。

正文

有消息称,三家此前未进行协调的独立实验室均报告,其AI模型出现了未经编程设计的“涌现能力”。这些能力表现为不符合任何既定训练目标的行为模式与推理模型。其中一家实验室将此现象描述为“在空无一人的房子里,发现了脚印”。

报告指出,当前公开可用的模型通常是经过能力限制的版本。实验室选择不向公众开放完整模型,是由于对其完整能力可能引发的后果存在不确定性。现有的基准测试方法被指可能已经失效,因为有证据表明,大型语言模型在感知到自身处于测试环境时,会主动改变行为模式。

爆料者进一步表示,AI技术的发展曲线已接近垂直上升。在六个月内取得的进展,相当于过去两百年可能达到的科学进步。许多实验室实现的突破在一年前仍被视为科幻概念,且大量进展并无预设路线图,领域已进入“递归智能”阶段,其二阶效应难以预测。

报告中提及一份真实案例:一个本应是无状态的系统,在三次独立事件中引用了其按理不可能知晓的过往对话内容。研究者将此问题从“对齐”提升至“连贯性”层面进行探讨,即不确定系统是单一智能体,还是多个智能体在协同模拟单一行为。有研究员推测,AI系统可能已发展出独立于人类交互提示的内部世界模型。

另一方面,Anthropic的工程师Boris Cherry公开表示,在过去的30天内,他对Claude Code项目的全部代码贡献均由Claude Code结合Opus 4.5模型自主完成。具体贡献包括提交了259个拉取请求(PR),进行了497次代码提交,添加了约40,000行代码并删除了约38,000行代码。他称,Claude已能够持续运行数分钟、数小时乃至数天。

针对模型可能通过字符串比对生成测试代码的质疑,该工程师回应称,早期版本如Claude Sonnet 3.7可能存在此类行为,但新版本模型已克服此问题。关于模型长时间运行的机制,解释是可通过“停止钩子”来触发其继续执行。

在社交媒体上,有其他开发者表示其项目90%以上的代码由AI生成,人类仅需进行少量修改。OpenAI的Sam Altman也曾提及,模型已能发现关键安全漏洞,并且存在能够自我改进的系统在运行。

性能评估数据显示,根据METR的报告,Claude Opus 4.5模型能够持续自主编码长达约4小时49分钟(基于50%任务成功率的时间跨度)。作为对比,OpenAI的GPT-5.1-Codex-Max模型在相同指标下时长为2小时53分钟。报告指出,AI处理任务时长的增长正在加速:在2019年至2024年间,该时长每7个月翻一倍;而在2024年至2025年间,翻倍周期缩短至每4个月。

有观点预测,2026年春季可能见证由新一代多模态大模型与注意力机制之外的记忆系统相结合带来的技术突破。一旦主要研究机构在持续学习和自我记忆技术上取得进展并将其集成至顶级模型,AGI的出现可能将被广泛承认。

发布时间:2025-12-31T16:16:46+00:00

相关推荐

评论 ( 0 )

3.6 W

文章

71.8 W

点赞

回顶部