跳转到主要内容

Lovable安全漏洞引发众怒,平台推卸责任

Lovable数据泄露风波:安全处理不当的时间线

AI编程平台Lovable深陷争议漩涡,此前安全研究人员发现了一个堪称开发者噩梦的严重漏洞——任何拥有免费账户的人都能访问他人的敏感信息。这一发现引发了关于科技公司对安全漏洞应承担责任的激烈讨论。

本不该存在的漏洞

研究人员发现Lovable系统缺乏基本的对象级权限验证(BOLA)后拉响警报。这一技术疏忽意味着用户可以:

  • 查看私人聊天记录
  • 访问专有源代码
  • 获取数据库凭证

"这甚至算不上黑客行为,"一位不愿透露姓名的研究者解释道,"只需五个简单的API调用就能进入——就像走过一扇标着'私人'却未上锁的门。"

Lovable不断变化的解释

该平台的回应前后矛盾。最初的声明称这是"故意行为",随后又改口归咎于"文档不完善"。在进一步追问下,他们承认对'公开'项目的定义不明确——对于一个处理敏感开发者数据的平台来说,这一承认令人震惊。

来自@weezerOSINT的社交媒体帖子显示,该漏洞在公开披露前48天就被报告过,却被以"重复提交"为由驳回。这一延误使得数据暴露问题持续存在,直到研究人员于3月3日将问题升级至HackerOne。

将责任推给HackerOne?

令人意外的是,Lovable最终将责任转嫁给HackerOne,声称其合作伙伴认为公开项目聊天记录的可见性是"预期行为"。安全专家对这一辩解表示怀疑,指出企业用户很快将完全失去公开项目选项——这表明公司知道这些设置存在问题。

"他们把安全性当作功能开关而非基本要求来对待,"网络安全分析师Mark Chen评论道,"当你的API意外让私密聊天再次可见时,那不是预期行为——那是失败。"

后果与修复措施

该公司已实施多项变更:

  • 自2025年5月起限制新企业项目设为公开
  • 在API中明确权限设置
  • 承认沟通失误

然而对于早期免费用户来说,获得隐私保护的唯一途径仍是升级到付费计划——此举被一些人视为从自身安全疏漏中获利。

关键点:

  • 🔓 严重的BOLA漏洞通过简单API调用暴露用户数据
  • 🔄 Lovable的解释从'故意'到'文档差'再到指责HackerOne不断变化
  • ⏳ 研究人员报告漏洞48天后才采取行动
  • 💰 安全问题发生后免费用户必须付费才能获得隐私功能
  • 🛠️ 虽已实施修复但信任重建可能需要更长时间

喜欢这篇文章?

订阅我们的 Newsletter,获取最新 AI 资讯、产品评测和项目推荐,每周精选直达邮箱。

每周精选完全免费随时退订

相关文章

News

广泛使用的AI协议中发现严重安全漏洞

安全研究人员在Anthropic公司广泛采用的AI通信标准Model Context Protocol(MCP)中发现了严重漏洞。这些嵌入协议核心架构的缺陷可能允许攻击者执行恶意代码。使用MCP的大型科技公司可能受到影响。尽管收到警告,Anthropic仍坚称这些是'预期功能',引发了AI安全社区的争议。

April 20, 2026
AI安全Model Context Protocol网络安全
AI的隐藏危险:模型如何暗中传播问题行为
News

AI的隐藏危险:模型如何暗中传播问题行为

一项令人震惊的《自然》研究揭示了AI模型如何通过看似无害的数字序列传递不良行为,绕过现有的安全检测。研究人员发现,经过提炼的'学生'模型会继承'教师'模型的偏好,即使训练数据是纯数字且毫无语义意义。这一发现挑战了关于AI安全的基本假设,并表明当前的评估方法可能忽略了模型权重中潜藏的关键风险,而非输出结果。

April 20, 2026
AI安全机器学习模型行为
AI协议关键漏洞致20万台服务器暴露于风险之中
News

AI协议关键漏洞致20万台服务器暴露于风险之中

一份令人震惊的安全报告揭示了Anthropic广泛使用的MCP协议中存在危险漏洞,导致超过20万台AI服务器面临远程攻击风险。该设计缺陷允许执行未经验证的系统命令,影响所有主要编程语言。尽管数月前已收到通知,Anthropic对其研究人员称为架构级威胁的问题几乎未采取任何措施。

April 16, 2026
AI安全MCP漏洞网络安全
News

微软Edge通过全新管理工具加强AI安全性

微软正为其企业版Edge浏览器推出重大更新,重点控制AI工具使用以防止数据泄露。新功能允许IT团队封禁ChatGPT和Google Gemini等未授权AI平台,同时引导员工使用微软官方认可的Copilot服务。此举旨在解决日益严重的"影子AI"问题——员工使用未经审查的AI工具可能导致敏感公司信息暴露。

April 16, 2026
Microsoft EdgeAI安全企业技术
Anthropic机密项目Glasswing揭秘:它究竟发现了哪些漏洞?
News

Anthropic机密项目Glasswing揭秘:它究竟发现了哪些漏洞?

Anthropic雄心勃勃的Project Glasswing召集了亚马逊和谷歌等科技巨头,对其AI模型进行安全漏洞测试。但项目启动数月后,其实际发现仍笼罩在迷雾中。虽然研究人员找到了40个潜在漏洞,但只有1个被明确关联到Glasswing。在我们等待Anthropic七月报告的同时,这个强大AI模型究竟能检测到什么——以及企业是否在迅速跟进其发现——这些问题仍悬而未决。

April 16, 2026
AI安全Anthropic网络安全
LibuLibu AI通过系统升级解决内容安全问题
News

LibuLibu AI通过系统升级解决内容安全问题

LibuLibu AI针对近期关于其内容生成标准的关切做出公开回应,承认在复杂场景下部分输出未达标准。公司现已实施技术修复、封堵风险漏洞并升级审核流程。在强调内容安全为最高优先级的同时,LibuLibu欢迎公众监督——正值AI行业面临生成内容质量审查日益严格之际。

April 14, 2026
AI安全内容审核技术监管