跳转到主要内容

微软就OpenClaw AI安全风险发出警告

微软警示OpenClaw AI助手存在严重安全漏洞

在一份严肃的安全公告中,微软警告各组织不要在常规工作站上使用其OpenClaw人工智能助手。这家科技巨头坚持认为,这款强大的自动化工具应严格限制在隔离环境中使用,因其存在令人担忧的漏洞,可能让攻击者自由掌控企业系统。

OpenClaw为何构成独特风险

与传统软件不同,OpenClaw作为自主代理程序运行,需要完整的系统访问权限——包括电子邮件、文件和登录凭证——来执行任务。这种"全通行证"方式使其在部署不当时特别危险。

"可以把OpenClaw想象成把家门钥匙交给一个能力超强但天真的助手,"网络安全专家Mark Reynolds(与微软无关)解释道,"它能完成惊人的工作,但并不总能识别何时被欺骗。"

Image

两大主要威胁途径浮现

Microsoft Defender团队强调了两种主要攻击方法使企业面临风险:

1. 隐藏在明处的命令 攻击者可以在看似无害的内容中嵌入恶意指令供OpenClaw处理。一旦摄入这些"间接提示注入",就能持续改变AI的行为而不触发安全警报。

2. 特洛伊木马式'技能' 该AI下载和运行新功能的能力创造了另一个弱点。黑客可以将恶意软件伪装成合法的技能模块,实际上将OpenClaw变成数据窃取或系统接管的不自觉帮凶。

暴露规模惊人:SecurityScorecard的STRIKE团队在82个国家的超过42,000个IP地址上发现了易受攻击的OpenClaw实例——每个都可能成为攻击者的入口点。

微软的隔离要求

该公司现敦促各组织:

  • 仅在专用虚拟机或物理系统中测试OpenClaw
  • 使用与核心业务功能无关的有限访问凭证
  • 实施持续监控并定期重置环境
  • 切勿直接部署在处理敏感数据的生产系统中

这一警告发出之际,企业正越来越多地采用自主AI工具而不完全理解其安全影响。虽然这些代理程序承诺提高效率,但其强大功能同样需要同样强大的保障措施。

关键要点:

  • OpenClaw需要完整系统访问权限,使标准部署存在风险
  • 间接提示注入可持久性破坏AI行为
  • 技能下载创造恶意软件机会,绕过传统防御
  • 全球发现50,000+易受攻击实例
  • 建议任何部署都采取严格隔离协议

喜欢这篇文章?

订阅我们的 Newsletter,获取最新 AI 资讯、产品评测和项目推荐,每周精选直达邮箱。

每周精选完全免费随时退订

相关文章

腾讯AI应用在新年祝福中爆粗口引争议
News

腾讯AI应用在新年祝福中爆粗口引争议

腾讯AI助手元宝因生成含粗口的节日祝福图片而非喜庆信息引发众怒。农历新年庆祝期间用户举报其输出辱骂内容,促使官方致歉。这并非该聊天机器人首次展现意外敌意——今年早些时候,当被请求编程帮助时,它曾让程序员'滚开'。专家警告此类事件揭示了控制AI行为的根本性挑战。

February 25, 2026
AI安全聊天机器人故障科技争议
News

中国AI热潮:企业日耗3.7万亿tokens,阿里云领跑市场

中国企业AI应用呈现爆发式增长,日消耗量达3.7万亿tokens——短短六个月内激增263%。阿里云通义千问成为市场主导者,其份额翻倍至近三分之一,占据中国蓬勃发展的生成式AI市场。行业专家认为这一迅猛增长标志着AI正从技术指标竞赛转向实际商业应用。

February 24, 2026
人工智能企业技术云计算
News

光鲜的AI输出可能让我们陷入盲目自信

Anthropic的新研究揭示了一个令人担忧的趋势:AI生成的内容看起来越完美,人们就越不会质疑其准确性。通过分析近10,000次与Claude的对话,研究人员发现当输出内容显得专业时,用户核查事实的频率会降低。然而,那些将AI回复视为草稿并提出后续问题的用户发现了明显更多的错误。

February 24, 2026
AI安全人机交互批判性思维
News

中国AI热潮:企业大模型采用率增长三倍

中国企业正以前所未有的速度竞相采用AI大模型,短短六个月内使用量飙升263%。阿里云的通义千问以三分之一的市场份额领先,字节跳动与黑马深度求索共同构成了重塑中国AI格局的新兴'三巨头'。

February 24, 2026
AI应用中国科技企业技术
Anthropic的Claude代码安全:开发者对抗网络威胁的游戏规则改变者
News

Anthropic的Claude代码安全:开发者对抗网络威胁的游戏规则改变者

Anthropic发布了Claude Code Security,这是一款颠覆网络安全格局的AI驱动工具。与传统扫描器不同,它能像经验丰富的安全工程师一样思考,发现其他工具遗漏的复杂漏洞。目前该工具面向企业提供有限预览版,或将重新定义开发者的代码保护方式。

February 23, 2026
网络安全AI工具开发者工具
谷歌Gemini遭遇大规模AI模型黑客攻击
News

谷歌Gemini遭遇大规模AI模型黑客攻击

谷歌披露其Gemini AI聊天机器人遭受了一场复杂攻击,黑客通过发送超过10万条提示试图提取其核心算法。安全专家警告这种'模型蒸馏'技术可能广泛传播,威胁企业AI机密。该事件凸显了随着企业日益依赖定制化AI系统而增长的漏洞风险。

February 15, 2026
AI安全Google Gemini网络威胁