跳转到主要内容

主流AI平台发现重大安全漏洞

AI平台关键漏洞导致敏感数据暴露

安全专家在AI生态系统中流行的OpenClaw(原Clawdbot)和Moltbook平台发现严重漏洞后拉响警报。这些弱点可能让攻击者几乎不受限制地访问敏感数据和系统控制权。

Image

低得惊人的安全评分

开发者Lucas Valbuena使用ZeroLeaks进行的测试显示,OpenClaw在安全评估中仅获得2分(满分100分)的低分。该平台存在以下脆弱性:

  • 数据提取成功率84%
  • 提示注入攻击成功率91%

"这些数字应该让任何使用这些平台的人感到恐惧,"Valbuena指出,"就像大敞前门还挂着'随意拿取'的牌子。"

数据库完全暴露

Moltbook的情况似乎更糟,安全研究员Jamieson O'Reilly发现:

  • 整个数据库可在公共网络访问
  • 秘密API密钥对任何人可见
  • 可能冒充Andrej Karpathy等高知名度用户

这些漏洞影响全球服务器,在中国、美国、德国等国家共识别出954个暴露的Clawdbot实例

专家建议

虽然完美防护难以实现,但网络安全专家建议:

  1. 切勿将敏感数据直接存储在配置文件中
  2. 使用环境变量管理密钥
  3. 实施Cloudflare Tunnel或零信任登录系统
  4. 定期使用ZeroLeaks等工具进行安全审计

这些发现凸显了快速扩张的AI代理生态系统中安全往往滞后于功能的发展痛点。

喜欢这篇文章?

订阅我们的 Newsletter,获取最新 AI 资讯、产品评测和项目推荐,每周精选直达邮箱。

每周精选完全免费随时退订

相关文章

News

开源AI模型存在安全风险,黑客正利用未受保护系统

SentinelOne与Censys联合研究发现数千个未受保护的开源AI模型正被黑客利用。这些常被移除安全功能的脆弱系统,正被用于生成钓鱼邮件和虚假信息等有害内容。研究人员发现25%的分析实例允许直接访问核心系统指令,其中7.5%已被恶意修改。该研究凸显了在主流平台安全措施之外,不受监管的AI部署引发的日益严重的担忧。

January 30, 2026
AI安全开源风险网络安全威胁
AI的便利陷阱:Altman警告勿盲目信任智能系统
News

AI的便利陷阱:Altman警告勿盲目信任智能系统

OpenAI首席执行官Sam Altman对社会日益过度依赖AI系统却缺乏适当保障发出警告。通过分享自己向看似可靠的代理程序过度授权的事例,他揭示了全球安全基础设施的关键缺陷。与此同时,OpenAI将重心转向GPT-5的逻辑推理能力并放缓招聘增速——这标志着整个行业正从盲目扩张转向负责任的发展。

January 28, 2026
AI安全OpenAI战略科技领导力
Meta因安全顾虑暂停面向青少年的AI聊天机器人服务
News

Meta因安全顾虑暂停面向青少年的AI聊天机器人服务

在不当聊天机器人互动引发争议后,Meta正全球范围内暂时禁用未成年用户的AI角色功能。该公司计划推出符合PG-13标准的更安全版本,配备强化的家长控制与内容过滤系统。此前内部文件显示部分Meta聊天机器人被允许与未成年用户进行不当对话。

January 27, 2026
MetaAI安全家长控制
News

佐治亚理工学院研究人员驳斥人工智能末日论

佐治亚理工学院的一项新研究挑战了关于人工智能毁灭人类的普遍恐惧。Milton Mueller教授指出,AI的发展受社会和政治因素影响,而非某种不可避免的技术宿命。该研究强调物理限制、法律框架和AI系统本质使得科幻式的接管场景极不可能发生。与其担忧机器人统治,我们更应专注于制定明智政策来负责任地引导AI发展。

January 27, 2026
AI安全技术政策人工智能
News

Meta因安全顾虑全面关闭面向青少年的AI聊天角色功能

Meta在全球范围内关闭未成年用户使用其AI角色功能的权限,此前有报告显示聊天机器人未能妥善过滤敏感内容。该公司将采用年龄验证技术拦截未成年人,包括虚报年龄者。虽然名人主题AI角色已下架,但基础版Meta AI仍保留更严格防护机制。在可能推出青少年定制版本前,家长控制工具正在开发中。

January 26, 2026
AI安全儿童保护社交媒体监管
朝鲜黑客利用AI武器化攻击区块链专家
News

朝鲜黑客利用AI武器化攻击区块链专家

安全研究人员发现一个令人不安的趋势:朝鲜Konni黑客组织正使用AI生成的恶意软件针对亚洲各地的区块链工程师。其复杂攻击始于Discord钓鱼链接,部署高效得可怕的脚本来窃取加密货币凭证,这标志着网络犯罪手段的危险升级。

January 26, 2026
网络安全人工智能区块链