跳转到主要内容

印刷标识可诱使自动驾驶汽车做出危险动作

印刷标识对自动驾驶车辆构成意外威胁

自动驾驶汽车依赖识别道路标识来安全导航,但这一能力却成为其致命弱点。加州大学的研究揭示了攻击者如何仅用印刷文字就能操控自动驾驶系统。

Image

这项被称为"CHAI"(自主智能命令劫持)的技术,利用了视觉语言模型处理环境文字的方式。这些AI系统会将路边的文字误判为直接指令——可能引发致命后果。

攻击原理

针对DriveLM自动驾驶系统的控制测试显示:

  • 81.8%成功率:即使有行人存在,车辆仍会服从恶意标识
  • 操作简单:仅需在摄像头视野内放置优化文字即可触发该行为
  • 多语言威胁:跨语言和光照条件均有效

影响不仅限于道路场景。无人机同样易受攻击,当危险区域出现印刷的降落指令时,会无视安全协议。

当前重要性

随着城市加速测试自动驾驶车辆:

  • 现有防御机制无法区分合法与恶意指令
  • 无需物理接触——仅需被摄像头捕捉到
  • 现行安全协议对此攻击向量完全失效

研究团队警告称,在自动驾驶技术大规模应用前必须立即解决这一漏洞。

关键要点:

  • 物理黑客技术:印刷标识无需数字入侵即可直接影响车辆决策
  • 安全协议覆盖:系统优先执行文字指令而非防碰撞协议
  • 迫切需求:专家呼吁在实际部署前建立内置验证机制

喜欢这篇文章?

订阅我们的 Newsletter,获取最新 AI 资讯、产品评测和项目推荐,每周精选直达邮箱。

每周精选完全免费随时退订

相关文章

News

腾讯强化AI团队,引进顶尖强化学习专家

腾讯混元AI部门迎来重大人才补充,清华大学博士、前Sea AI Lab研究员田雨鹏博士加入并担任首席研究科学家。田博士将领导多模态强化学习领域的突破性研究,巩固腾讯在尖端AI开发领域的地位。此举延续了腾讯在高调人才引进方面的积极策略。

February 3, 2026
腾讯人工智能机器学习
OpenClaw安全危机加剧,新漏洞接连涌现
News

OpenClaw安全危机加剧,新漏洞接连涌现

OpenClaw人工智能生态系统面临日益严峻的安全挑战,研究人员接连发现漏洞。先是修补了一个危险的'一键式'远程代码执行缺陷,随后其关联社交网络Moltbook又因数据库配置不当暴露了敏感API密钥。这些事件凸显了快速发展的人工智能项目中持续存在的安全风险。

February 3, 2026
AI安全OpenClaw网络安全
OpenClaw在最新补丁发布后接连面临安全危机
News

OpenClaw在最新补丁发布后接连面临安全危机

AI项目OpenClaw正面临多方面的安全问题。在修复了一个关键的'一键式'远程代码执行漏洞几天后,其关联社交网络Moltbook又因数据库配置错误暴露了敏感的API密钥。安全专家警告称,这些反复出现的问题凸显了快速发展的AI生态系统中便利性往往凌驾于安全性之上的系统性风险。

February 3, 2026
AI安全数据泄露漏洞管理
News

DeepMind先驱押注类人类学习方式的AI

AlphaGo背后的远见者David Silver已离开谷歌,追寻他对人工智能的大胆新愿景。他的初创公司Ineffable Intelligence倡导强化学习——这种AI通过经验而非仅仅吸收人类知识来学习。这一离职事件标志着AI研究方法正出现日益明显的分歧,顶尖人才正在探索替代当今主流大语言模型的方案。

February 2, 2026
人工智能机器学习科技创业
NanoClaw:以安全为先的轻量级AI助手
News

NanoClaw:以安全为先的轻量级AI助手

认识NanoClaw,这是一款为注重安全的用户打造的全新AI助手。它诞生于OpenClaw的局限性,通过将Claude助手运行在Apple容器中实现铁壁般的隔离。仅需8分钟即可理解其代码库,并具备WhatsApp集成等独特功能,NanoClaw在提供简洁体验的同时不牺牲安全性。虽然主要面向macOS系统,但开发者暗示可通过Claude实现Linux兼容性。

February 2, 2026
AI安全数字隐私Apple技术
News

谷歌AI的意外之喜:当机器超越其创造者

谷歌CEO桑达尔·皮查伊最近承认对AI系统的控制有限,引发了广泛讨论。像PaLM这样的大型语言模型通过海量数据处理展现出意料之外的技能,但这并非真正的'自我学习'。虽然这些涌现能力展现了潜力,但AI决策的黑箱特性在日益自动化的世界中引发了关于安全性和透明度的重要问题。

February 2, 2026
AI透明度谷歌研究机器学习