数据:
目前,硅谷正经历一场关于AI开发范式的激烈辩论。OpenAI顶级对齐研究员肖恩・格罗夫(Sean Grove)认为提示词工程已过时,未来应当属于“规范化编程”(spec-writing)。规范化编程涉及编写、定义和记录系统需求,以确保开发团队、利益相关方和机器能够清晰理解系统目标。
格罗夫与安德烈・卡帕西就这个问题达成共识,卡帕西倡导的“上下文工程”与格罗夫的“规范化编程”分别代表“输入优化”和“意图澄清”两种解决方案。格罗夫强调“代码只是有损投影,规范应为‘源代码’”。此外,OpenAI的Model Spec是规范化编程的成功案例,为开发者和用户提供透明参考框架。
线索:
提示词工程的过时揭示了AI发展中的机遇与挑战。对规范化编程的关注意味着今后的AI开发需要更加明确的规范与目标,这可能会导致对具有相关技能的人才需求增加。同时,也存在潜在的风险,例如新方法的普及可能导致传统开发模式的困惑和转换成本。如何适应快速变化的技术背景将是未来AI开发中的关键。
正文:
当前,硅谷正经历一场关于人工智能(AI)开发方式的激烈讨论。著名AI专家安德烈・卡帕西(Andrej Karpathy)提出“上下文工程”(context engineering)作为新的开发思路,并指出提示词工程(prompt engineering)已不再适用。对此,OpenAI的顶级对齐研究员肖恩・格罗夫(Sean Grove)也表态称,提示词工程确实已过时,他提出了一个全新的概念:未来的开发方式应当属于“规范化编程”(spec-writing)。
规范化编程是一个发展过程,涉及到编写、定义和记录系统的需求、功能和行为规范,旨在确保开发团队、利益相关方及机器能够清晰理解系统的目标和方向。格罗夫是OpenAI核心研究团队的重要成员,专注于人工智能的安全和模型对齐研究。他目前正在组建新的智能体鲁棒性团队,并参与通用人工智能的安全演化工作。在一次技术演讲中,他提出了与卡帕西不同的AI发展路径。
尽管关于AI开发的两位专家均反对传统的提示词工程,但两人却提出了截然不同的解决方案:卡帕西的上下文工程代表“输入优化”,而格罗夫的规范化编程则代表“意图澄清”。卡帕西认为,大多数AI智能体的失败源于上下文信息的缺失,他强调在适当时机、以适当格式提供恰当的信息。
相对而言,格罗夫提出的“规范化编程”则更加关注于人类在与AI互动时未能明确表达自己的意图。他认为,提示词工程和上下文工程的不足之处在于尽管人类花费精力优化与AI的交互,却未曾真正阐明自己具体想要什么。格罗夫主张,借助结构化规范文档明确开发意图和价值判断,使其成为比代码更重要的“源代码”。
综合来看,卡帕西与格罗夫虽然看法不一,但二者均认同提示词工程的局限性,预见程序员角色向“意图设计者”的转变。此背景下,OpenAI的Model Spec旨在传达模型在API及ChatGPT中的行为标准,成为规范化编程的一项成功实践。
基于此,格罗夫指出,未来的AI系统应建立在统一的规范标准之上,这将提升AI的可信度和透明度,为人类与AI的协作提供安全高效的新途径。最终,尽管这两位专家在路径上有所不同,但都有助于推动人类与AI的互动进入一个新的时代。
发布时间:
None
评论 ( 0 )