Anthropic在AI军备竞赛中放弃安全护栏
Anthropic背弃AI安全承诺
硅谷正为之震动:长期被视为行业良心的AI公司Anthropic正在大幅缩减其安全承诺。该公司本周悄然更新了《负责任扩展政策》,删除了此前延迟潜在高风险AI开发的关键条款。
从监督者到竞争者
就在去年,Anthropic还承诺若模型达到特定危险阈值将暂停研究。如今?这一承诺取决于竞争对手是否可能取得优势。修订后的政策声明称"除非我们缺乏显著竞争优势,否则将继续推进"——这实则是加入AI军备竞赛的委婉说法。
这一逆转背后是冷酷的财务现实。随着380亿美元估值目标和IPO压力日益增大,当OpenAI和谷歌等对手飞速前进时,Anthropic已无法承担理想主义的代价。一位要求匿名的内部人士承认:"当前监管环境更倾向于增长而非谨慎。"
吹哨人拉响警报
政策转变并非悄无声息。高级安全研究员Mrinank Sharma辞职以示抗议,并公开警告不受约束的AI开发将导致"相互关联的危机"。他的离职凸显了AI初创公司内部安全倡导者与业务团队之间日益紧张的矛盾关系。
投资者似乎对这些担忧无动于衷。据报道Anthropic最新一轮融资尽管存在争议仍吸引了强烈兴趣。科技分析师Rachel Wu指出:"在增长停滞前,安全性都是卖点。现在我们正目睹这些优先事项发生冲突时的情形。"
关键要点:
- 安全性退居次席:Anthropic从其负责任的AI政策中移除了强制暂停触发机制
- 融资压力加剧:在与OpenAI的激烈竞争中,公司寻求提升估值
- 专家开始出走:随着商业化重点加强,顶尖研究人员因伦理担忧相继离职




