OpenAI再度调整安全团队架构,任命首位首席未来学家
OpenAI在领导层变动中重组安全工作
这家人工智能巨头再次解散核心安全团队——这是其不到一年内的第二次重大架构调整。2024年9月成立的使命对齐团队上周悄然解散,成员被重新分配到其他部门。该团队成立的初衷是确保AI造福人类。

从集中监管到责任分散
被解散的团队代表着OpenAI在发展通用人工智能(AGI)竞赛中制度化管理伦理保障的最新尝试。与传统科技产品不同,AGI具有存在性风险——许多研究者认为这需要专门的监督机制。
"这次重组反映了我们的信念:安全不应孤立存在",OpenAI发言人向TechCrunch表示。公司强调原使命对齐团队成员仍在产品团队中继续类似工作。
行业分析师观察到以下模式:
- 2025年7月:超级对齐团队解散
- 2026年2月:使命对齐团队解散
- 当前策略:安全工作成为"每个人的职责"
这种策略兼具希望与风险。虽然将安全融入各部门可避免官僚盲区,但批评者警告这可能削弱问责制。
认识OpenAI首位首席未来学家
伴随重组的是一个引人注目的新角色:原使命对齐负责人Josh Achiam出任新设立的首席未来学家一职。这位以通俗解读AI风险著称的研究者将与物理学家Jason Pruet合作研究AGI的社会影响。
"我的关注点没有改变——只是工具不同了",Achiam在宣布职位变动的博文中写道,"我们正在搭建人类前所未需对话的脚手架"。
这项任命表明OpenAI意识到公众对AI发展轨迹日益增长的焦虑。即使内部安全团队不断解散,仍需要有人对外阐述公司的长期愿景。
AI保障机制的坎坷之路
OpenAI的安全工作从未遵循直线路径:
- 初创时期:联合创始人强调存在性风险
- 发展阶段:建立专门监督团队
- 当前时代:分散责任同时设立首席未来学家等职位
这种做法反映了科技行业在集中合规与分散责任之间的钟摆式摇摆。对于管理可能改变文明的技朮而言,这种模式是否有效或许是AI领域最紧迫的未解之谜。
关键要点:
- OpenAI在解散超级对齐团队数月后又解散了使命对齐团队
- 原负责人Josh Achiam成为公司首位首席未来学家
- 安全责任现分散至各产品团队
- 此举延续了治理结构持续演变的模式

