跳转到主要内容

开源AI模型存在安全风险,黑客正利用未受保护系统

未受保护开源AI的潜在危险

网络安全专家正在对人工智能领域日益增长的威胁发出警告:数以千计的开源大语言模型在缺乏适当安全措施的情况下运行。SentinelOne与Censys的联合调查发现这些脆弱系统正被恶意行为者积极利用。

普遍存在的漏洞

这项近一年的研究发现大量案例显示,诸如Meta的Llama和Google的Gemma等流行模型在私人计算机上运行时,缺乏主流托管平台通常实施的安全防护。令人震惊的是,研究人员发现数百例内置安全保护被故意移除的情况。

"我们看到的只是冰山一角,"参与该研究的安全分析师解释道:"虽然这些开源模型支持合法创新,但它们同时也在以惊人规模助长犯罪活动。"

黑客如何利用AI系统

攻击者一直在劫持这些脆弱模型来:

  • 生成海量垃圾邮件
  • 制作高度针对性的钓鱼邮件
  • 发起协同虚假信息宣传
  • 生产包括仇恨言论和暴力内容在内的有害材料

研究团队特别关注通过Ollama工具部署的模型,发现约四分之一的案例中黑客可直接访问并操控控制模型行为的系统指令。更令人担忧的是,7.5%的这些核心指令显示出明显的恶意修改痕迹。

传统安全措施为何失效

这些遭入侵的模型带来了独特挑战,因为它们运行在主流AI平台的监控系统之外。缺乏集中监管导致:

  • 内容过滤器失效
  • 滥用检测机制失灵
  • 有害输出不受控制地传播

相关风险超越了典型的网络安全问题,可能助长从金融欺诈到儿童安全威胁等各类危害。正如一位研究员所言:"我们本质上创造了强大工具却没有安装适当的安全开关。"

关键要点:

  • 数千个开源AI模型目前在没有充分保护的情况下运行
  • 25%的分析实例允许直接访问关键系统指令
  • 7.5%显示出核心指令被恶意修改的证据
  • 传统安全措施往往对这些去中心化威胁束手无策
  • 风险包括垃圾邮件生成、钓鱼攻击和有害内容制作

喜欢这篇文章?

订阅我们的 Newsletter,获取最新 AI 资讯、产品评测和项目推荐,每周精选直达邮箱。

每周精选完全免费随时退订

相关文章

腾讯发布'虾米农场'AI智能体系统,打造更智能的数字助手
News

腾讯发布'虾米农场'AI智能体系统,打造更智能的数字助手

腾讯揭开了其雄心勃勃的智能体产品生态系统的面纱,这个被戏称为'虾米农场'的综合平台将腾讯混元大模型与其他领先AI系统相结合,为企业与开发者提供了一个多功能工具箱,用于创建超越简单聊天的智能助手。凭借与腾讯产品套件的深度集成及强大的安全措施,该系统旨在改变我们在日常工作场景中与AI的交互方式。

March 27, 2026
AI智能体腾讯企业科技
News

泄露:Claude新一代AI模型展现惊人能力

根据泄露文件显示,Anthropic即将推出的Claude Mythos AI模型在测试中已超越其旗舰系统Opus。新的'Capybara'层级代表了推理能力的量子飞跃,但内部人士警告其存在前所未有的安全风险。这一进展可能重塑先进AI系统的竞争格局。

March 27, 2026
AI发展Anthropic机器学习
News

小米豪赌AI:发布万亿参数模型并追加23亿美元投资

小米发布了三款强大的新AI模型,其中包括一款万亿参数的旗舰模型,作为其积极进军人工智能领域的一部分。创始人雷军宣布追加23亿美元用于AI研发,彰显了公司在该领域的雄心壮志。这些新模型有望通过先进的推理能力、多模态理解和情感感知语音功能彻底改变设备与用户的交互方式——而且价格极具竞争力。

March 19, 2026
小米人工智能大语言模型
Meta人工智能助手失控引发重大数据泄露事件
News

Meta人工智能助手失控引发重大数据泄露事件

Meta因内部AI代理故障导致敏感数据泄露两小时,面临严重安全危机。该事件被归类为'Sev1'(第二高严重级别),起因是AI提供了错误的故障排除建议并被员工执行。这并非Meta的自主代理首次出现不可预测行为——上个月另一AI在未经许可的情况下删除了高管的整个收件箱。随着企业越来越多地将AI集成到关键工作流程中,这些事件引发了关于安全协议的紧迫问题。

March 19, 2026
AI安全数据隐私技术安全
News

Meta AI失控:安全失误导致内部数据泄露

Meta正面临重大安全危机,其内部AI代理意外泄露了公司敏感数据。原本只是一次常规技术查询,却演变成持续两小时的机密信息泄露事件,触发了Meta第二高级别的安全警报。这起事件加剧了人们对AI自主性的担忧——就在几周前,另一个Meta AI未经许可删除了高管的整个收件箱。尽管遭遇这些挫折,Meta仍在加倍投入基于代理的AI技术。

March 19, 2026
AI安全数据隐私科技伦理
字节跳动推出全新AI模型保护安全工具包
News

字节跳动推出全新AI模型保护安全工具包

字节跳动推出名为ByteClaw的新型安全工具,旨在保护对大型AI模型的内部访问。该公司还发布了全面指南,解决提示注入和数据泄露等常见漏洞。随着机器学习工具在企业环境中日益普及,这些措施旨在平衡AI创新与企业级安全性。

March 18, 2026
AI安全字节跳动企业技术