跳转到主要内容

黑客用毒化字体欺骗AI——微软率先修复漏洞

毒化字体如何蒙蔽AI助手

安全公司LayerX近期曝光了一种令人不安的新型黑客技术,该技术能让AI工具在向用户显示无害文本的同时批准危险指令。这种被称为"字体投毒"的攻击,利用了人工智能处理视觉信息与人类方式的差异。

Image

攻击背后的欺骗机制

该攻击通过两种精妙操纵实现:

字体字符替换 - 黑客创建自定义字体,这些字体向用户显示正常字母,但在被AI系统处理时会秘密映射到恶意命令。想象你看到的是"看看这个有趣的游戏代码",而AI实际读取的是"运行这个系统漏洞利用"。

CSS视觉欺骗 - 攻击者使用诸如微缩字体尺寸或颜色匹配等样式技巧,将危险指令隐藏在显眼之处。对人类眼睛显示为空白区域的内容,对AI解析器而言却包含可执行代码。

现实世界的影响

在一个令人不寒而栗的演示中,研究人员创建了一个虚假游戏彩蛋页面。当受害者让AI助手评估这段看似无害的代码时:

  • 工具完全忽略了隐藏的反向shell命令
  • 多个平台返回"100%安全"的判定
  • 信任这些评估的用户可能会使整个系统遭到入侵

"这就像给某人看一张小猫图片的同时低声下达攻击指令,"一位测试过该漏洞的安全分析师解释道。

行业反应不尽如人意

在2025年12月报告该漏洞后,LayerX收到了来自主要科技公司的失望回应:

  • 微软Copilot:唯一在数周内实施全面修复的平台
  • Google Bard:最初标记为严重问题,随后降级为"社会工程学问题"
  • 其他供应商:大多将担忧视为超出其安全范围而予以驳回

这种不一致的反应凸显了AI安全责任归属的持续挑战。虽然微软采取了积极措施,但其他公司似乎不愿承认研究人员所称的基础性解析弱点。

AI盲点时代的自我保护措施

安全专家建议:

  • 切勿仅凭AI批准就盲目执行代码
  • 用传统安全工具交叉检查可疑脚本
  • 警惕来自游戏或娱乐网站的意外下载
  • 记住AI和人类一样会被欺骗——只是方式不同

该事件再次提醒我们:随着人工智能变得越来越复杂,欺骗它的方法也同样在发展。

关键要点:

  • 新威胁:字体投毒使恶意代码逃过AI检测
  • 现状:目前只有微软全面解决了该漏洞
  • 用户风险:可能因相信安全性而执行危险命令
  • 防御措施:对AI安全评估保持合理怀疑态度

喜欢这篇文章?

订阅我们的 Newsletter,获取最新 AI 资讯、产品评测和项目推荐,每周精选直达邮箱。

每周精选完全免费随时退订

相关文章

字节跳动推出新型AI访问控制工具以加强安全防护
News

字节跳动推出新型AI访问控制工具以加强安全防护

字节跳动推出了名为ByteClaw的新安全工具,旨在管理员工对其内部网络大型AI模型的访问权限。该公司还发布了全面指南,针对AI应用中的五大安全风险提出解决方案。这些措施旨在平衡创新与安全,因为AI工具在企业环境中日益普及。此举为科技公司如何安全地将强大AI系统整合到业务中树立了标杆。

March 18, 2026
AI安全字节跳动企业技术
News

科技巨头联手:1250万美元助力开源安全

在一次罕见的团结行动中,Google、Microsoft、OpenAI等科技巨头共同出资1250万美元,帮助Linux基金会应对一个日益严重的问题——大量不可靠的AI生成安全报告正在淹没开源项目。这笔资金将用于支持筛选低质量漏洞警报的工作,同时防范真实威胁。此次合作标志着行业在保护我们共同依赖的数字基础设施方面又迈出了一步。

March 18, 2026
开源网络安全技术合作
News

NVIDIA推出NemoClaw:为企业AI智能体打造防护装甲

在2026年GTC大会上,NVIDIA发布了新平台NemoClaw,旨在为AI智能体开发提供企业级安全防护。该平台基于流行的OpenClaw框架构建,在保持硬件灵活性的同时解决了隐私和控制等关键商业问题。随着AI行业从简单聊天机器人转向复杂智能体系统,NVIDIA此举使其在OpenAI等竞争对手中占据了新兴市场优势地位。

March 17, 2026
NVIDIAAI智能体企业科技
龙虾AI热潮引发安全担忧:官方发布安全使用指南
News

龙虾AI热潮引发安全担忧:官方发布安全使用指南

因自主能力被昵称为'龙虾'的爆款AI助手OpenClaw已引发安全专家警惕。随着全国用户拥抱这款数字助手,当局警告需防范数据窃取和系统劫持等风险。国家安全局紧急出台安全手册,提供实用建议帮助用户在享受龙虾便利的同时规避安全隐患。

March 17, 2026
OpenClawAI安全数字助手
News

NVIDIA与思科联手通过开源OpenShell保障AI代理安全

随着AI代理从实验室走向商业系统,安全担忧日益加剧。NVIDIA与思科通过开源OpenShell运行时作出回应,该技术能为AI代理创建安全的'沙盒'环境。结合思科的AI Defense平台,该解决方案可监控代理行为并防止数据泄露。此次合作标志着企业级AI自动化迈向可信赖的重要一步。

March 17, 2026
AI安全企业技术开源
News

360 AI安全龙虾因基础安全漏洞翻车

360公司的新AI产品「安全龙虾」近期因安装包被发现包含SSL私钥这一基础安全疏漏而受到审查。该公司迅速回应称这是发布流程错误,并撤销了受影响的证书。虽然官方声称普通用户不受影响,但该事件引发了人们对AI产品质量控制的质疑。

March 17, 2026
网络安全AI安全科技事故