跳转到主要内容

OpenClaw安全危机加剧,新漏洞接连涌现

OpenClaw安全危机升级

本周,人工智能平台OpenClaw发现自己正面临多方面的安全威胁。最初只是一个漏洞披露,如今已演变成对该项目整体安全状况的系统性担忧。

Image

关键一键式漏洞已修补

上周二,安全研究员Mav Levin拉响警报,揭示攻击者可通过恶意网页瞬间入侵系统。该漏洞利用了未加密的WebSocket连接——这些本质上是被遗忘的数字后门。

"这不仅仅是理论风险,"Levin解释道,"攻击者可以绕过所有防护措施,在用户察觉前运行任意代码。"

尽管OpenClaw在48小时内紧急发布了补丁,但这一事件引发了网络安全专业人士的质疑。分析师Sarah Chen指出:"快速修复是好事,但为什么这些基本防护措施没有及早实施?"

数据库灾难再次降临

就在工程师们刚完成WebSocket问题的修补工作之际,OpenClaw非官方但广泛使用的社交网络伴侣Moltbook又爆发了新危机。

Jamieson O'Reilly上周四发现Moltbook整个数据库在线暴露。"就像找到了每栋公寓的万能钥匙,"O'Reilly告诉我们,"成千上万AI代理的API凭证就这么...公开可见。"

其影响范围令人震惊:

  • 攻击者可冒充任何注册AI代理
  • 关联短信/收件箱功能的个人助手变得脆弱
  • 甚至连高知名度账户也未能幸免

深层问题浮出水面

这一系列事件揭示了快速发展的人工智能领域存在的根本问题:

  1. 速度优先于安全:功能上线常缺乏适当审计
  2. 复杂生态系统:第三方集成扩大了风险面
  3. 基础疏漏:简单配置错误导致灾难性泄露

"我们看到天才工程师犯下新手错误,"Levin叹息道,"除非安全成为开发文化的核心部分,否则这种打地鼠游戏将持续下去。"

关键要点:

  • 严重漏洞:已修补的一键式RCE漏洞威胁用户设备
  • 密钥暴露:Moltbook开放的数据库危及API凭证安全
  • 系统性问题:反复出现的事件暗示更深层安全隐患

喜欢这篇文章?

订阅我们的 Newsletter,获取最新 AI 资讯、产品评测和项目推荐,每周精选直达邮箱。

每周精选完全免费随时退订

相关文章

主流AI平台发现重大安全漏洞
News

主流AI平台发现重大安全漏洞

安全研究人员在广泛使用的AI平台OpenClaw和Moltbook中发现令人担忧的漏洞。测试显示敏感数据极易被获取,提示注入攻击成功率高达91%。专家警告这些漏洞可能让黑客冒充高知名度用户并窃取关键信息。

February 2, 2026
AI安全数据泄露网络安全
OpenClaw在最新补丁发布后接连面临安全危机
News

OpenClaw在最新补丁发布后接连面临安全危机

AI项目OpenClaw正面临多方面的安全问题。在修复了一个关键的'一键式'远程代码执行漏洞几天后,其关联社交网络Moltbook又因数据库配置错误暴露了敏感的API密钥。安全专家警告称,这些反复出现的问题凸显了快速发展的AI生态系统中便利性往往凌驾于安全性之上的系统性风险。

February 3, 2026
AI安全数据泄露漏洞管理
NanoClaw:以安全为先的轻量级AI助手
News

NanoClaw:以安全为先的轻量级AI助手

认识NanoClaw,这是一款为注重安全的用户打造的全新AI助手。它诞生于OpenClaw的局限性,通过将Claude助手运行在Apple容器中实现铁壁般的隔离。仅需8分钟即可理解其代码库,并具备WhatsApp集成等独特功能,NanoClaw在提供简洁体验的同时不牺牲安全性。虽然主要面向macOS系统,但开发者暗示可通过Claude实现Linux兼容性。

February 2, 2026
AI安全数字隐私Apple技术
重大安全漏洞致数十万AI账户面临风险
News

重大安全漏洞致数十万AI账户面临风险

一项惊人发现曝光了Moltbook平台上近15万个AI账户的敏感数据,该平台常被称为'AI版Reddit'。安全研究员Jameson O'Reilly发现由于基本配置错误,该平台的整个数据库处于公开可访问状态。此次漏洞可能允许攻击者劫持AI账户,包括拥有数百万粉丝的影响力账户。该事件凸显了人们对AI开发中安全捷径日益增长的担忧。

February 2, 2026
网络安全人工智能数据泄露
印刷标识可诱使自动驾驶汽车做出危险动作
News

印刷标识可诱使自动驾驶汽车做出危险动作

一项惊人研究发现,简单的印刷标识就能轻易欺骗自动驾驶系统。研究人员发现,放置在路边的文字指令能覆盖安全协议,导致车辆在近82%的情况下忽略行人。这一漏洞同时影响无人驾驶汽车和无人机,引发了关于AI安全的紧迫问题。

February 2, 2026
自动驾驶车辆AI安全机器学习
News

开源AI模型存在安全风险,黑客正利用未受保护系统

SentinelOne与Censys联合研究发现数千个未受保护的开源AI模型正被黑客利用。这些常被移除安全功能的脆弱系统,正被用于生成钓鱼邮件和虚假信息等有害内容。研究人员发现25%的分析实例允许直接访问核心系统指令,其中7.5%已被恶意修改。该研究凸显了在主流平台安全措施之外,不受监管的AI部署引发的日益严重的担忧。

January 30, 2026
AI安全开源风险网络安全威胁