OpenAI悄然从其使命中删除'安全第一'承诺
OpenAI的优先事项演变:安全退居二线?
在科技界引起广泛关注的一项举动中,OpenAI大幅修改了其核心使命声明,删除了对AI安全和非营利理想的明确承诺。这些在近期税务文件中被发现的变化,暗示着该公司基本原则的重大转变。
发生了什么变化?
2022-2023年的文件明确声明OpenAI将构建"不受财务回报限制且造福人类的安全AI"。而到了2025年末的文件中,两个关键要素消失了:
- "安全"一词完全消失
- 利润限制条款不复存在
简化后的版本现在仅承诺"确保通用AI造福全人类"——留下了广阔的解读空间。
幕后动荡
这些文件变更反映了公司内部的现实转变。消息人士证实OpenAI最近解散了其使命对齐团队——该小组负责保持AI开发的道德基础。离职过程并不顺利;一位被解雇的高管公开指责公司为取悦特定用户群体而降低标准。
当被问及据称违背部分团队成员建议添加的成人内容功能时,OpenAI以歧视指控作为回应——制造了混乱的公关风波而非解决核心问题。
从理想主义者到实用主义者?
使命声明的重写似乎正式确认了OpenAI从天真理想主义者逐渐转变为注重盈亏的经营者的过程:
2015年: 作为非营利研究实验室成立 2019年: 创建利润上限实体OpenAI LP 2023年: 获得微软100亿美元投资 2025年: 从章程中删除安全/利润限制条款
公司坚称这并不意味着完全放弃安全——但批评者指出当某件事从你的指导原则中消失时,它必然会在优先级列表中下滑。
下一步是什么?
这些变化恰逢在GPT产品中引入广告的计划,引发了新的隐私辩论。当AI系统在处理我们最敏感数据的同时追逐广告收入时,道德保障还能维持吗?
与谷歌被淡忘的"不作恶"座右铭的相似之处难以忽视。随着OpenAI在商业上走向成熟,它能避免追随科技巨头们从理想主义到实用主义的老路吗?还是说这艘船已经启航?
关键要点:
- 使命偏移: 官方文件中移除了安全和非营利承诺
- 内部冲突: 因政策分歧解散伦理团队
- 商业推进: 广告计划引发隐私担忧
- 历史回响: 与谷歌放弃的理想存在相似之处



