新型AI漏洞:利用图像重采样发起攻击
AI系统面临隐藏式图像攻击威胁
Trail of Bits的网络安全研究人员发现了一个关键漏洞,影响多个处理图像的AI系统。该攻击利用标准图像重采样技术隐藏恶意指令,这些指令仅在图像处理后才会显现。
攻击原理
这项名为"图像重采样攻击"的技术利用了AI系统为提高效率而降低图像分辨率的常规做法。攻击者将恶意指令嵌入图像的特定区域,这些区域在全分辨率下显示正常,但经过双三次重采样等常见算法处理后,会转变为可读文本。

对主流平台的广泛影响
在受控测试中,研究人员成功攻陷了多个知名AI系统,包括:
- Google Gemini CLI
- Vertex AI Studio
- Google Assistant
- Genspark
一个令人担忧的演示显示,该攻击通过Gemini CLI窃取Google日历数据并在未经用户同意的情况下将其发送至外部邮箱。
提出的防御措施
研究团队发布了开源工具Anamorpher,帮助安全专业人员检测此漏洞。他们推荐三项关键防御策略:
- 对上传图像实施严格大小限制
- 提供显示重采样结果的预览功能
- 对数据导出等敏感操作要求明确的用户确认

研究人员强调,虽然这些措施有所帮助,但根本解决方案需要对系统架构进行彻底重新设计以完全防止此类提示注入攻击。
关键要点:
- 新型攻击载体利用AI系统中的标准图像处理流程
- 隐藏在图像中的恶意指令在重采样后显现
- 影响包括Google AI服务在内的多个主流平台
- 研究人员提供检测工具和缓解建议
- 突显对更安全系统设计模式的需求
