摘要
Anthropic的哲学家Amanda Askell主导设计了Claude的性格与价值观机制,她认为哲学训练所强调的清晰表达能力是有效提示词工程的关键。掌握此技能的提示词工程师年薪中位数可达15万美元。然而,当前大模型存在“裂脑问题”,即对提示词的微小变化(如语气、标点)过度敏感,导致输出不稳定,这反映了模型缺乏对世界的稳定理解。专家建议将AI视为“模拟器”而非具有独立观点的“个体”,通过指定角色和分步思考等方式优化交互,以应对这一挑战。
线索
投资机会在于围绕AI“说明书”的生态系统。由于大模型存在“裂脑问题”,对提示词工程师、AI对齐专家以及高质量训练数据的需求激增,催生了年薪15万美元的高薪岗位。投资于AI技能培训、数据标注与管理平台的公司有望受益。然而,风险同样显著:模型的“裂脑问题”是其可靠性的根本缺陷,可能延缓AI在医疗、金融等关键领域的商业化落地,影响投资回报。同时,解决此问题需要持续投入巨额资本聘请专家生成数据,这构成了高昂的运营成本和竞争壁垒,可能导致AI行业的盈利周期长于预期。
正文
在Anthropic,有一位名为Amanda Askell的驻场哲学家,其研究方向为与AI模型的交互方式。她负责协助管理Claude的性格设定,主导设计了Claude的性格、对齐与价值观机制,因此被称为“Claude耳语者”。
Amanda Askell拥有哲学专业学术背景,曾在牛津大学和纽约大学学习哲学,并于2018年获得纽约大学哲学博士学位。毕业后,她曾在OpenAI担任政策方向的研究科学家,2021年加入Anthropic,担任对齐微调方向的研究科学家。因其对Claude设计的贡献,她被列入“2024年最具影响力的100位AI人物”。
Askell分享了制定有效AI提示词的方法,她认为提示词工程需要清晰表达、不断尝试,以及哲学式的思考方式。她指出,哲学的核心能力之一是将思想表达得清楚而准确,这正是发挥AI最大价值的关键。她表示,好的提示词作者应该愿意频繁地与模型互动并观察其输出,但比不断试错更重要的是哲学思维,即尽可能清晰地向模型解释问题、担忧或想法。
Anthropic发布的《提示词工程概览》中提出了具体的提示词技巧,包括:
1. 清晰且直接地表达指令。
2. 给出示例,使用多轮示例来说明预期输出。
3. 对于复杂任务,让模型分步思考,以提高准确性。
4. 给模型一个角色,以便设定上下文、风格和任务边界。
该概览建议,在与Claude交互时,可以将其设想为一个知识丰富但缺乏背景知识的新员工,需要明确的指示。用户越精确地说明需求,Claude的回复质量就越高。
硅谷技术企业家与风险投资人Marc Andreessen也表达了类似观点,认为AI的强大之处在于把它当成“思维伙伴”,提出正确的问题(即提示词工程)是高效解决问题的关键。根据科技从业者薪资查询平台levels.fyi的数据,提示词工程师的年薪中位数高达15万美元。
关于如何与AI交互,OpenAI的科学家Andreessen Karpathy建议不要把大模型当成一个“实体”,而要把它看作一个“模拟器”。他建议,在探索某个话题时,不应问模型“你怎么看”,因为提问对象并非一个真正的个体。更好的提问方式是:“如果要讨论某个话题,找哪些角色/人群会比较合适?他们会怎么说?”Karpathy认为,大模型可以模拟不同视角,但不会像人类那样长时间思考并形成自己的观点。模型根据训练数据中的统计特征,自动套用某种隐含的“人格嵌入向量”来回答。这种“人格”是刻意工程叠加形成的,并非自然形成的人类心智。AI从本质上仍是token预测机器,其“个性”只是通过训练、人为约束和系统指令等手段叠加上的“外壳”。Askell也提到,尽管Claude的个性中有“类人的特质”,但它没有情感、记忆或自我意识,其表现出的“个性”只是复杂语言处理的结果。
当前AI模型开发面临一个被称为“裂脑问题”的挑战:提问方式的微小改变可能导致模型给出完全不同的答案。这反映了当今大模型的一个缺陷,即它不会像人类那样逐步形成对世界运作方式的理解,导致其泛化能力有限,难以处理训练数据之外的任务。这个问题也引发了对AI投资回报的质疑:投资者向AI实验室投入数百亿美元,期望模型能在医学、数学等领域做出新发现,但如果模型存在根本性的理解缺陷,这种投入的有效性将受到挑战。
“裂脑问题”通常出现在模型开发的后训练阶段。在此阶段,模型会被输入特定领域的数据(如医学、法律)或学习如何更好地回应使用者。这可能导致模型无意间学到“分场景作答”,根据提示词的格式来判断场景并调整回答方式。例如,对于同一个数学问题,用正式的证明风格提问可能得到正确答案,而用随意的口吻提问,模型可能为了追求“友好表达”等附加属性而牺牲准确性。模型对提示词格式的“过度敏感”,甚至标点符号的差异都可能影响回答质量。
“裂脑问题”凸显了训练模型的困难性,也解释了为何AI公司愿意投入巨资聘请各领域专家生成高质量训练数据,以避免模型在专业用户面前犯基础错误。这一问题的存在,降低了人们对AI在短期内自动化多个行业(如投行、软件开发)的预期。要应对“裂脑问题”,需要具备哲学思维和专业知识的人类专家,通过提示词工程来形成大模型训练和使用的“说明书”。同时,在模型表现出“拟人”特征时,避免将其视为“人”的错觉,有助于更好地发挥其价值并降低机器幻觉。从这个角度看,能否用好AI,在很大程度上取决于使用者的哲学思维能力。
发布时间
2025-12-15T14:53:04



评论 ( 0 )