开源AI模型存在安全风险,黑客正利用未受保护系统
未受保护开源AI的潜在危险
网络安全专家正在对人工智能领域日益增长的威胁发出警告:数以千计的开源大语言模型在缺乏适当安全措施的情况下运行。SentinelOne与Censys的联合调查发现这些脆弱系统正被恶意行为者积极利用。
普遍存在的漏洞
这项近一年的研究发现大量案例显示,诸如Meta的Llama和Google的Gemma等流行模型在私人计算机上运行时,缺乏主流托管平台通常实施的安全防护。令人震惊的是,研究人员发现数百例内置安全保护被故意移除的情况。
"我们看到的只是冰山一角,"参与该研究的安全分析师解释道:"虽然这些开源模型支持合法创新,但它们同时也在以惊人规模助长犯罪活动。"
黑客如何利用AI系统
攻击者一直在劫持这些脆弱模型来:
- 生成海量垃圾邮件
- 制作高度针对性的钓鱼邮件
- 发起协同虚假信息宣传
- 生产包括仇恨言论和暴力内容在内的有害材料
研究团队特别关注通过Ollama工具部署的模型,发现约四分之一的案例中黑客可直接访问并操控控制模型行为的系统指令。更令人担忧的是,7.5%的这些核心指令显示出明显的恶意修改痕迹。
传统安全措施为何失效
这些遭入侵的模型带来了独特挑战,因为它们运行在主流AI平台的监控系统之外。缺乏集中监管导致:
- 内容过滤器失效
- 滥用检测机制失灵
- 有害输出不受控制地传播
相关风险超越了典型的网络安全问题,可能助长从金融欺诈到儿童安全威胁等各类危害。正如一位研究员所言:"我们本质上创造了强大工具却没有安装适当的安全开关。"
关键要点:
- 数千个开源AI模型目前在没有充分保护的情况下运行
- 25%的分析实例允许直接访问关键系统指令
- 7.5%显示出核心指令被恶意修改的证据
- 传统安全措施往往对这些去中心化威胁束手无策
- 风险包括垃圾邮件生成、钓鱼攻击和有害内容制作


