摘要:OpenAI正在以55.5万美元年薪及股权激励招聘一名“安全与风险准备主管”,该职位被首席执行官山姆·奥尔特曼称为公司当前阶段的“关键角色”,将负责评估和应对AI在心理健康、网络安全、生物安全等领域的系统性风险。此次招聘背景是AI能力快速演进伴随风险加剧,包括模型被发现能识别高危漏洞、面临多起心理健康相关诉讼,以及公司内部安全团队历经多次重组与核心人员离职。当前全球缺乏统一的AI治理框架,企业主要依靠自我监管。
线索:此次高薪招聘是观察AI行业治理转向的关键信号。OpenAI估值约5000亿美元,其将风险治理岗位提升至战略高度,意味着头部企业开始正视“能力扩散快于安全控制”的现实风险,并试图将其内化为公司治理的一部分。对投资者而言,这既可能被视为降低长期政策与诉讼风险的积极举措,从而支撑估值;也可能暗示AI模型已进入风险“硬核”兑现期,未来的产品发布节奏、合规成本乃至商业模式都可能受此岗位的评估影响。若该职位能有效建立可落地的安全流程,或为行业树立治理标杆;反之,若再次陷入“安全空心化”,则可能加剧市场对行业无序发展的担忧。
正文:
人工智能公司OpenAI正在招聘一名“安全与风险准备主管”,该职位基础年薪为55.5万美元,并包含股权激励。公司首席执行官山姆·奥尔特曼表示,这是公司当前阶段的“关键角色”,其职责是“帮助世界应对AI潜在负面影响”。他同时指出,这将是一份压力极大的工作,新任负责人几乎需要在入职之初便直面最复杂、最具不确定性的风险议题。
根据招聘信息,该岗位的核心职责包括:持续评估前沿AI能力可能带来的新型风险,制定相应的缓释和防范机制,并在产品层面和更广泛的社会层面降低潜在滥用可能性。所谓“前沿能力”,主要指尚未被充分理解、但可能具备放大性影响的新一代模型能力。该岗位将直接负责应对AI在心理健康、网络安全、生物安全等领域可能引发的系统性风险。
此次招聘正值AI能力快速演进与相关风险备受关注之际。奥尔特曼特别指出,公司在过去一年中发现模型能力提升带来了两方面“真实的挑战”:一是对心理健康的潜在影响;二是在计算机安全方面进入新阶段,模型“开始能发现关键漏洞”。OpenAI方面承认,其最新模型在网络攻击相关能力上较数月前显著提升,并预计未来模型仍将延续这一趋势。
在心理健康影响方面,OpenAI正面临多起相关诉讼。其中一起诉讼指控ChatGPT可能间接导致了一名青少年用户离世。根据涉事家庭统计,在一段时间内,虽然ChatGPT主动发出了74次自杀干预警报,但AI主动提及危险具体方式的次数达到243次。OpenAI自己的统计显示,每周平均约有120万用户通过ChatGPT分享“潜在的自杀计划或意图”。作为应对,OpenAI表示正在优化模型训练,以增强对心理困扰信号的识别能力,并引导用户寻求现实世界的专业支持,公司也在今年9月上线了青少年模式。
值得注意的是,OpenAI内部负责安全与风险防范的团队在过去一段时间经历了多次变动。2024年5月,专注于远期风险的“超级对齐”团队解散,其工作被并入其他研究。该团队前联合负责人扬·莱克在离职时曾表示,安全文化和流程已经让位于产品发布。随后,OpenAI组建了更侧重解决实际模型风险的“准备”团队,但其负责人也数次更迭:首任负责人阿莱克桑德·马德里被调岗;之后的共同负责人华金·基尼奥内罗·坎德拉和翁荔也已相继离职。有前员工称,专注于通用人工智能安全研究的人员数量因此减少了近一半。
在更广泛的行业层面,多位科技企业高管近期公开表达了对AI失控风险的担忧。有观点指出,当前AI能力演进速度已远超社会治理体系的适应能力;若缺乏有效约束,先进AI系统存在偏离预期轨道并对人类造成实质性伤害的可能。目前,全球范围内仍未形成统一、可执行的AI治理框架,企业在很大程度上仍处于“自我监管”状态。
OpenAI目前估值约为5000亿美元。随着公司体量与影响力持续扩大,其在安全、合规和社会责任层面的压力也随之上升。分析认为,随着AI进入规模化应用阶段,安全治理正从边缘议题转变为影响企业估值与长期发展的核心变量。此次高薪招聘安全主管,反映出头部AI企业已开始将风险治理视为需要持续投入的战略性事项。
发布时间:2025-12-29T17:01:41+00:00



评论 ( 0 )