五角大楼史无前例将AI公司Anthropic列入黑名单
五角大楼史无前例将AI公司Anthropic列入黑名单
2026年3月6日 - 这个震撼硅谷的决定标志着五角大楼首次正式将人工智能公司Anthropic列为"供应链风险",使这家AI开发商在历史上首次被置于与外国对手同等的分类地位。

这一戏剧性升级源于Anthropic首席执行官达里奥·阿莫迪与国防官员数周的紧张谈判。消息人士证实,阿莫迪在两个关键问题上划清了底线:拒绝军方在无人监督情况下将Claude AI用于国内大规模监控或完全自主武器系统。
"当他们询问我们是否愿意协助建造杀人机器人时,我们就知道这种合作无法成立,"一位要求匿名的Anthropic内部人士透露,"有些技术不该被武器化。"
国防领域的连锁反应
该标签立即产生实际影响。军事承包商现在面临压力需要证明未使用Claude模型——考虑到该系统已广泛集成到现有国防基础设施中,这绝非易事。目前管理中东行动的Palantir Maven系统严重依赖Claude驱动的分析功能,这意味着业务中断似乎不可避免。
最令人震惊的是?"供应链风险"标签历来只用于与中国或俄罗斯等国有联系的公司。将其应用于本土美国科技企业实属前所未有。
OpenAI采取相反立场
当Anthropic坚守立场时,竞争对手OpenAI却在广泛的"合法用途"协议下拥抱军事合作。上个月OpenAI总裁格雷格·布罗克曼向国防利益相关的政治组织捐赠2500万美元后,这种对比更加鲜明。
阿莫迪被问及这种分歧时直言不讳:"这与国家安全无关——而是对我们拒绝配合某些政治议程的报复。"
科技从业者的反击
这场争议引发了各大AI公司的员工抗议活动。OpenAI和谷歌数百名员工举行罢工要求政策逆转。抗议组织者认为五角大楼的行动既威胁伦理AI发展也危及商业创新。
正如一位谷歌DeepMind工程师所说:"今天是监控技术,明天可能就是你的医疗诊断算法。底线在哪里?"
这场对峙凸显了政府需求与硅谷自我监管理念之间日益紧张的矛盾关系。随着数十亿美元国防合同的利害关系和AI能力的快速发展,未来几个月这种冲突可能只会加剧。
关键要点:
- 史无前例的标签:美国科技企业首次获得"供应链风险"身份
- 伦理分歧显现:Anthropic拒绝的军事AI应用被OpenAI接受
- 运营影响:使用Claude的军事系统面临即时中断
- 员工反弹:多家AI企业员工因伦理担忧发起抗议