跳转到主要内容

OpenClaw框架遭重大恶意软件攻击

OpenClaw框架遭遇恶意软件攻击后陷入安全危机

网络安全专家称之为今年最令人担忧的AI相关漏洞事件之一,流行的OpenClaw框架(前身为Clawdbot)成为一次重大供应链攻击的受害者。该事件通过被入侵的扩展程序使数千用户面临潜在的数据盗窃风险。

Image

攻击如何展开

此次入侵主要针对OpenClaw的扩展平台ClawHub,社区成员在此分享"技能"——本质上是增强框架功能的插件。VirusTotal的安全分析师发现,攻击者利用这个开放生态系统上传了数百个伪装成合法工具的恶意软件。

"这种情况特别危险的原因在于这些威胁如何巧妙地伪装成有用工具,"VirusTotal的首席研究员解释道,"用户可能下载看似Google Workspace集成或财务分析工具的程序,结果系统却被入侵。"

最活跃的攻击者使用用户名"hightower6eu"上传了超过300个受感染的技能,包括:

  • 针对主流平台的虚假生产力工具
  • 包含隐藏载荷的数据分析实用程序
  • 秘密窃取敏感信息的网络管理技能

该恶意软件利用OpenClaw的系统访问能力下载并执行其他有害程序,包括针对macOS系统的臭名昭著的Atomic Stealer木马。

紧急应对措施

OpenClaw创始人Peter Steinberger迅速采取行动应对危机:"我们已经实施了多层自动扫描和人工审核机制。现在每个技能在发布前都将经过严格审查。"

新的安全协议包括:

  1. AI驱动扫描:VirusTotal的Code Insight技术(由Google Gemini提供支持)自动分析每个提交内容的可疑行为模式。
  2. 动态风险评估:系统监控危险信号如下载外部文件或访问敏感系统资源的尝试。
  3. 专家监督:网络安全资深人士Jamieson O'Reilly已加入担任高级安全顾问,以加强防范未来攻击的保护措施。
  4. 每日重新扫描:即使已批准的技能也将每24小时重新检查以防新威胁出现。

这对AI安全意味着什么

该事件突显了对AI生态系统中第三方扩展可以以最小监督执行代码这一漏洞日益增长的担忧。随着更多企业采用基于代理的自动化解决方案,专家警告除非将强大的安全措施作为标准做法,否则类似攻击可能会变得越来越普遍。

关键点:

  • 在OpenClaw的ClawHub平台上发现超过300个恶意技能
  • 攻击者利用框架功能分发包括Atomic Stealer在内的恶意软件
  • 新安全措施结合了AI扫描与人类专业知识
  • 该事件强调了在AI扩展生态系统中需要更强有力的保护

喜欢这篇文章?

订阅我们的 Newsletter,获取最新 AI 资讯、产品评测和项目推荐,每周精选直达邮箱。

每周精选完全免费随时退订

相关文章

蚂蚁集团与清华大学联合推出开源AI智能体安全防护盾
News

蚂蚁集团与清华大学联合推出开源AI智能体安全防护盾

蚂蚁集团AI安全实验室与清华大学发布ClawAegis,这是一款针对OpenClaw类AI智能体的突破性安全插件。该轻量级解决方案解决了智能体全生命周期中的技能投毒、数据污染等风险。该工具提供实时威胁检测,同时保持对终端用户的透明度——这是迈向更安全自主系统的重要一步。

April 2, 2026
AI安全开源自主智能体
Claude Code的安全漏洞:过多指令如何击穿AI防御
News

Claude Code的安全漏洞:过多指令如何击穿AI防御

Anthropic旗下Claude Code工具新发现的漏洞揭示:黑客仅需用指令洪流就能绕过其安全措施。当系统一次性接收超过50条子指令时,其自动拒绝机制会失效,可能导致用户暴露在危险操作中。安全专家警告,该漏洞在可能跳过权限检查的自动化开发环境中风险尤为突出。

April 2, 2026
AI安全Anthropic软件漏洞
News

阿里巴巴与上海AI实验室发布新白皮书,探讨AI安全问题

随着AI从聊天机器人发展为自主代理,安全问题成为焦点。阿里巴巴与上海人工智能实验室联合发布了一份开创性的白皮书,针对这些风险提出解决方案。文件概述了聚焦企业责任、社会效益和行业协作的三管齐下策略。这标志着中国科技行业正从原始算力转向负责任的AI开发。

April 1, 2026
AI安全阿里巴巴上海AI实验室
Claude代码泄露:一个简单错误如何揭露AI的肮脏秘密
News

Claude代码泄露:一个简单错误如何揭露AI的肮脏秘密

Anthropic旗下Claude Code的源代码泄露并非因为复杂的黑客攻击,而是由于一个令人尴尬的人为错误——生产环境中意外包含了一个未混淆的MAP文件。当开发者们为这意外收获欢呼时,Anthropic正忙于通过DMCA下架通知控制损失,并承诺改进自动化流程。该事件凸显了AI工具在其部署过程中对基本人为错误的讽刺性脆弱。

April 1, 2026
AI安全Claude CodeAnthropic
Anthropic代码泄露事件曝光AI机密与意外功能
News

Anthropic代码泄露事件曝光AI机密与意外功能

AI公司Anthropic因意外泄露其Claude Code工具的50万行源代码而面临重大安全漏洞。此次泄露不仅暴露了技术机密,还揭示了未发布的功能,如数字宠物和AI'梦境'能力。尽管公司紧急采取行动控制损害,但该事件引发了人们对快速发展科技行业中AI安全实践的严重质疑。

April 1, 2026
AI安全Anthropic代码泄露
News

Anthropic安全声誉因接连数据泄露事件受损

以安全著称的AI公司Anthropic在一周内接连遭遇两起重大安全漏洞事件。先是意外泄露3000份内部文件,随后又因打包错误导致更严重的源代码泄露——超过51.2万行代码外泄。这些事件引发了对公司内部管控的严重质疑,同时也意外暴露了其Claude Code技术的强大实力——据悉其表现如此出色,甚至促使OpenAI暂时搁置了Sora视频工具的开发。

April 1, 2026
AI安全数据泄露科技竞争