IT之家今天(7月24日),OpenAI首席执行官山姆・阿尔特曼(Sam Altman)本周二在 X 渠道发布推文,表明在新一轮内部架构重组中,担任 AI 安全的主管亚历山大・马德里(Aleksander
Madry)调岗,并将其重新分配到一个专心于人工智能推理的岗位。
阿尔特曼在推文中表明:“Aleksander 正在从事一个新的、非常重要的研讨项目”。
阿尔特曼弥补表明,OpenAI 高管华金・基诺内罗・坎德拉(Joaquin
Quinonero Candela)和莉莉安・翁(Lilian Weng)将在此期间接收 Preparedness 团队。
OpenAI 安全团队简介
IT之家注:OpenAI 公司信赖和安全部分主管戴夫・威尔纳(Dave
Willner)于 2023 年 7 月离任之后,公司于同年 10 月将该部分拆分为 3 个团队:
安全体系(Safety Systems)团队:专心于高档人工智能模型和人工通用智能的安全布置,专心于削减对当时模型和产品(如 ChatGPT)的乱用。
超级对齐(Superalignment)团队:为该公司(期望)在更悠远的未来具有的超级智能模型的安全性奠定根底
Preparedness 团队:担任制作前沿模型的新危险,并对前沿模型进行安全评价,评价和减轻与人工智能相关的“灾难性危险”。
Aleksander 简介
该团队此前由 Aleksander 领导,协助盯梢、评价、猜测和防备由人工智能模型带来的灾难性危险,担任制作前沿模型的新危险,并对前沿模型进行安全评价。
Aleksander 仍是麻省理工学院可布置机器学习中心(Center for Deployable Machine Learning)的主任和麻省理工学院人工智能方针论坛(MIT AI Policy Forum)的教员联合担任人。
OpenAI 官方表明 Aleksander 在新岗位上仍将从事中心的人工智能安全作业。