OpenAI加强ChatGPT安全防护,抵御隐蔽提示攻击
OpenAI收紧ChatGPT安全防线

针对日益增长的AI漏洞担忧,OpenAI为ChatGPT实施了两项重大安全升级。这些变更专门针对提示注入攻击——第三方通过巧妙操纵诱使AI执行未授权操作或泄露敏感数据的行为。
锁定模式:ChatGPT的诺克斯堡
最突出的功能是锁定模式,这是当前面向企业、教育、医疗和教师版本的可选设置。可以将其视为给ChatGPT套上保护罩:
- 网络浏览仅限于缓存内容
- 缺乏可靠安全保障的功能会被自动禁用
- 管理员获得对允许外部应用的精细控制权
该模式采用确定性运作——意味着它会做出可预测、一致的拦截决策,而非依赖概率性过滤。"我们正在为组织提供工具,帮助其做出明智的安全权衡决策,"一位OpenAI发言人解释道。
有趣的是,虽然目前主要面向高安全性环境设计,但OpenAI计划在未来几个月内将锁定模式推广至消费者版本。
红色警示:'高风险'标签系统
第二项重大变更是在ChatGPT及Codex等相关产品中引入标准化警告标签。具有较高风险的功能现在会显示醒目的"高风险"标签,并附带:
- 潜在危险的明确说明
- 建议的缓解策略
- 适用场景指南
该标签尤其影响网络相关功能——这些特性虽能提升实用性,但仍存在未解决的安全问题。
为何此时至关重要
此次更新正值企业越来越多地将AI集成到敏感工作流程中。近期事件表明,当AI系统与外部工具交互时,看似无害的提示可能绕过安全防护措施。
OpenAI的方案因以下特点而脱颖而出:
- 提供实际技术约束(锁定模式)
- 提高透明度(风险标签)
- 保持灵活性(可选实施)
The Compliance API Logs Platform通过支持详细使用审计来补充这些功能——这对受监管行业至关重要。
关键要点:
- 锁定模式以确定性方式限制高风险外部交互
- "高风险"标签在OpenAI产品中标准化警告信息
- 两项措施均建立在现有沙盒和URL保护系统基础上
- 企业版本率先获得访问权限,消费者版本即将推出


