印刷标识可诱使自动驾驶汽车做出危险动作
印刷标识对自动驾驶车辆构成意外威胁
自动驾驶汽车依赖识别道路标识来安全导航,但这一能力却成为其致命弱点。加州大学的研究揭示了攻击者如何仅用印刷文字就能操控自动驾驶系统。

这项被称为"CHAI"(自主智能命令劫持)的技术,利用了视觉语言模型处理环境文字的方式。这些AI系统会将路边的文字误判为直接指令——可能引发致命后果。
攻击原理
针对DriveLM自动驾驶系统的控制测试显示:
- 81.8%成功率:即使有行人存在,车辆仍会服从恶意标识
- 操作简单:仅需在摄像头视野内放置优化文字即可触发该行为
- 多语言威胁:跨语言和光照条件均有效
影响不仅限于道路场景。无人机同样易受攻击,当危险区域出现印刷的降落指令时,会无视安全协议。
当前重要性
随着城市加速测试自动驾驶车辆:
- 现有防御机制无法区分合法与恶意指令
- 无需物理接触——仅需被摄像头捕捉到
- 现行安全协议对此攻击向量完全失效
研究团队警告称,在自动驾驶技术大规模应用前必须立即解决这一漏洞。
关键要点:
- 物理黑客技术:印刷标识无需数字入侵即可直接影响车辆决策
- 安全协议覆盖:系统优先执行文字指令而非防碰撞协议
- 迫切需求:专家呼吁在实际部署前建立内置验证机制


