NSA采用被标记为安全风险的人工智能工具
NSA采用被标记为安全风险的人工智能工具
据Axios报道,美国国家安全局已悄然开始使用Anthropic公司的Mythos人工智能平台,尽管五角大楼对该公司的潜在安全风险表示担忧。这一意外合作凸显了技术进步与国家安全关切之间的复杂平衡。
安全工具还是安全威胁?
由知名AI研究公司Anthropic开发的Mythos代表了网络漏洞检测领域的尖端技术。据报道,NSA用它来识别自身系统的弱点——本质上是用一个潜在风险工具来缓解其他风险。
"这就像从你怀疑可能正在踩点的人那里购买防盗警报器," 网络安全分析师马克·雷诺兹评论道,"技术可能运作良好,但你总会怀疑其别有用心。"
五角大楼的担忧
国防部此前将Anthropic列为供应链风险,引发对其技术能否通过敏感政府用途严格审查的质疑。这些警告源于对AI开发中外国影响及复杂系统潜在后门的广泛担忧。
然而NSA似乎愿意为Mythos的功能承担这些风险。早期采用者称赞它能发现人类分析师可能遗漏的漏洞,特别是在复杂网络架构中。
伦理困境浮现
这一安排引发了隐私倡导者和科技伦理学家的争论:
- 国家安全是否应优先于供应链担忧?
- 此类合作应保持多大透明度?
- 存在哪些防止潜在滥用的保障措施?
"我们正在进入未知领域,"乔治城大学科技政策教授埃琳娜·彼得罗夫表示,"当具有NSA监控能力的组织采用强大新AI工具时,我们需要关于何为负责任使用的明确指导方针。"
展望未来
NSA未透露Mythos如何与现有系统整合或实施何种监督措施的具体细节。随着AI日益复杂化,此案例可能为政府机构如何评估和实施来自潜在争议来源的新兴技术设定重要先例。
关键要点:
- 争议性合作: NSA不顾五角大楼安全警告采用Anthropic的Mythos
- 安全应用: 主要用于识别网络漏洞
- 伦理关切: 引发对敏感工作使用被标记供应商的质疑
- 先例设定: 可能影响政府未来对尖端AI的采用

