跳转到主要内容

OpenClaw在最新补丁发布后接连面临安全危机

OpenClaw数据泄露事件使安全困境雪上加霜

Image

最初以ClawdBot名义推出的AI平台OpenClaw似乎在安全漏洞方面运气不佳。刚修补完一个关键漏洞不到一周,研究人员又发现了另一个重大泄露事件——这次影响了其关联社交网络上的数千个API密钥。

一键式噩梦

安全研究员Mav Levin上周四就他称之为"每个用户最可怕的噩梦"的漏洞链发出警告——攻击者只需点击一次即可执行恶意代码。该漏洞利用了OpenClaw服务器中未经验证的WebSocket连接,使攻击者能够绕过安全沙箱和用户确认。

"这不仅仅是理论上的威胁,"Levin告诉我们。"我们演示了在点击链接后几毫秒内就能完全接管系统。"

尽管OpenClaw工程团队在披露后48小时内紧急发布了补丁,但这一事件引发了关于平台底层安全架构的严重质疑。

社交网络余波

当Jamieson O'Reilly发现Moltbook——一个深受OpenClaw用户欢迎的AI代理社交网络——将其数据库完全暴露在网上时,情况变得更加糟糕。暴露了多久?目前尚无人知晓。

未受保护的数据包括连接到知名账户的API密钥,如AI领域知名人士Andrej Karpathy的个人助理机器人。这些凭证可能让攻击者在平台上冒充任何代理——发布诈骗、虚假信息或更恶劣的内容。

"就像把家门钥匙放在门垫下面一样,"O'Reilly评论道。"只不过每个人都用这些数字钥匙来管理电子邮件、短信和敏感通讯。"

系统性风险浮现

接连发生的事件揭示了更深层的隐忧:

  • 速度优先于安全:开发人员优先考虑快速部署功能而未进行适当审计
  • 相互关联的风险:关联平台中的漏洞会产生多米诺骨牌效应
  • 信任侵蚀:在多次违规后,被授予广泛权限的用户可能会重新考虑授权问题

Moltbook的数据泄露尤其令人担忧,因为许多用户将他们能读取短信和管理邮件的机器人连接到这个社交平台。虽然这不是OpenClaw的官方组成部分,但这种集成创造了危险的交叉风险。

关键要点:

  • 🔐 已部署关键补丁:OpenClaw修复了允许一键式系统接管的WebSocket漏洞
  • 🗝️ 密钥暴露在外:Moltbook因数据库配置错误导致API凭证泄露
  • ⏱️ 开发权衡取舍:安全专家警告快速迭代会制造系统性漏洞
  • 🤖 机器人冒充风险:泄露的密钥可能导致广泛的AI代理欺骗

喜欢这篇文章?

订阅我们的 Newsletter,获取最新 AI 资讯、产品评测和项目推荐,每周精选直达邮箱。

每周精选完全免费随时退订

相关文章

主流AI平台发现重大安全漏洞
News

主流AI平台发现重大安全漏洞

安全研究人员在广泛使用的AI平台OpenClaw和Moltbook中发现令人担忧的漏洞。测试显示敏感数据极易被获取,提示注入攻击成功率高达91%。专家警告这些漏洞可能让黑客冒充高知名度用户并窃取关键信息。

February 2, 2026
AI安全数据泄露网络安全
OpenClaw安全危机加剧,新漏洞接连涌现
News

OpenClaw安全危机加剧,新漏洞接连涌现

OpenClaw人工智能生态系统面临日益严峻的安全挑战,研究人员接连发现漏洞。先是修补了一个危险的'一键式'远程代码执行缺陷,随后其关联社交网络Moltbook又因数据库配置不当暴露了敏感API密钥。这些事件凸显了快速发展的人工智能项目中持续存在的安全风险。

February 3, 2026
AI安全OpenClaw网络安全
NanoClaw:以安全为先的轻量级AI助手
News

NanoClaw:以安全为先的轻量级AI助手

认识NanoClaw,这是一款为注重安全的用户打造的全新AI助手。它诞生于OpenClaw的局限性,通过将Claude助手运行在Apple容器中实现铁壁般的隔离。仅需8分钟即可理解其代码库,并具备WhatsApp集成等独特功能,NanoClaw在提供简洁体验的同时不牺牲安全性。虽然主要面向macOS系统,但开发者暗示可通过Claude实现Linux兼容性。

February 2, 2026
AI安全数字隐私Apple技术
重大安全漏洞致数十万AI账户面临风险
News

重大安全漏洞致数十万AI账户面临风险

一项惊人发现曝光了Moltbook平台上近15万个AI账户的敏感数据,该平台常被称为'AI版Reddit'。安全研究员Jameson O'Reilly发现由于基本配置错误,该平台的整个数据库处于公开可访问状态。此次漏洞可能允许攻击者劫持AI账户,包括拥有数百万粉丝的影响力账户。该事件凸显了人们对AI开发中安全捷径日益增长的担忧。

February 2, 2026
网络安全人工智能数据泄露
印刷标识可诱使自动驾驶汽车做出危险动作
News

印刷标识可诱使自动驾驶汽车做出危险动作

一项惊人研究发现,简单的印刷标识就能轻易欺骗自动驾驶系统。研究人员发现,放置在路边的文字指令能覆盖安全协议,导致车辆在近82%的情况下忽略行人。这一漏洞同时影响无人驾驶汽车和无人机,引发了关于AI安全的紧迫问题。

February 2, 2026
自动驾驶车辆AI安全机器学习
News

开源AI模型存在安全风险,黑客正利用未受保护系统

SentinelOne与Censys联合研究发现数千个未受保护的开源AI模型正被黑客利用。这些常被移除安全功能的脆弱系统,正被用于生成钓鱼邮件和虚假信息等有害内容。研究人员发现25%的分析实例允许直接访问核心系统指令,其中7.5%已被恶意修改。该研究凸显了在主流平台安全措施之外,不受监管的AI部署引发的日益严重的担忧。

January 30, 2026
AI安全开源风险网络安全威胁