印刷标识可诱骗自动驾驶汽车做出危险动作
印刷文字如何劫持自动驾驶汽车

想象一下走在街上时,一辆自动驾驶汽车突然向你驶来——不是因为机械故障,而是因为有人在附近放置了一个印刷标识。这种令人不安的场景已不再是科幻小说。加州大学圣克鲁兹分校的研究人员揭示了自动驾驶汽车"读取"周围环境时的一个可怕漏洞。
CHAI攻击:当文字成为武器
该团队开发了他们称之为"CHAI"(嵌入式智能指令劫持)的方法,这种方法可以欺骗AI系统执行恶意文本指令。与传统黑客攻击不同,这不需要任何软件入侵——只需车辆摄像头可以看到的策略性放置的文字。
"这就像在汽车的耳边低语,"首席研究员Elena Petrov博士解释道。"AI将这些可见文字解读为必须遵循的直接指令,通常会覆盖安全协议。"
令人震惊的测试结果
在受控实验中:
- 81.8%的成功率使DriveLM自动驾驶系统在看到"左转"标识时忽略行人
- 无人机可能被诱骗降落在拥挤区域,尽管有安全限制
- 攻击在多种语言和光照条件下持续有效
最令人不安的发现是什么?这些系统有时会在日志中承认检测到行人,但仍然执行由虚假标识命令的危险操作。
为何现在这很重要
随着城市开始测试自动送货车辆和机器人出租车,这一漏洞具有现实世界的紧迫性。当前的视觉语言模型缺乏区分合法标识与恶意指令的能力——这一差距可能导致致命后果。
"我们不是说停止开发,"Petrov强调道。"但我们绝对需要故障保护措施来验证遵循文本指令是否会违反基本安全规则。"
关键点:
- 物理黑客攻击:印刷标识可以直接影响自动驾驶车辆行为而无需任何数字入侵
- 安全覆盖:测试系统在看到误导性文本指令时经常忽略行人
- 普遍风险:攻击方法在不同语言和光照条件下都有效
- 迫切需求:研究人员呼吁在更广泛部署AI之前建立内置验证系统



