跳转到主要内容

NVIDIA与思科联手通过开源OpenShell保障AI代理安全

守护企业AI的未来

想象一个由AI助手处理敏感任务的办公场景——分析安全威胁、管理客户数据,甚至做出关键决策。再设想其中一个被黑客入侵。由于科技巨头NVIDIA与思科的重要合作,这种噩梦场景的发生概率正大幅降低。

OpenShell解决方案

两家公司发布了OpenShell,这款开源AI代理运行时如同数字防弹衣。它创建了隔离的"沙盒"环境,每个代理在零默认权限下运行。每次外部访问请求、工具调用或数据交互都需要显式授权。

"可以理解为给AI员工明确岗位职责",NVIDIA首席安全研究员Lisa Chen博士解释道:"他们只会获得必要区域的准入权限"

工作原理

该系统采用双重机制:

  1. OpenShell通过细粒度策略控制定义代理执行的操作
  2. 思科AI Defense通过持续活动日志监控它们实际执行的行为

在零日漏洞测试中,该组合方案成效显著:当模拟攻击发生时:

  • 代理利用网络知识图谱识别威胁
  • 所有修复尝试都被安全限制在沙盒内
  • 任何可疑请求都会触发AI Defense的即时锁定机制

当下意义

企业AI应用面临关键障碍:信任。近期调查显示68%的CIO因安全问题推迟AI部署。传统网络安全工具难以应对AI特有风险——尤其是黑客通过伪装指令操纵代理的"提示注入"攻击。

"我们正从追问'能否构建智能代理'转向'能否信任它们'",思科CTO Mark Taylor指出:"这正是OpenShell要解决的命题"

此次开源发布让全球企业既能部署这些防护措施,又可参与改进——加速推进可能成为企业AI安全标准的技术发展。

核心要点:

  • 沙盒安全:OpenShell将每个代理隔离在权限受限环境中
  • 完全透明:思科平台记录每个决策步骤以供审计
  • 企业就绪:解决方案专为大规模自动化部署设计
  • 社区驱动:开源模式促进广泛采用与创新

喜欢这篇文章?

订阅我们的 Newsletter,获取最新 AI 资讯、产品评测和项目推荐,每周精选直达邮箱。

每周精选完全免费随时退订

相关文章

黑客利用自定义字体欺骗AI——微软率先修复而其他厂商滞后
News

黑客利用自定义字体欺骗AI——微软率先修复而其他厂商滞后

新发现的安全漏洞允许黑客通过自定义字体和CSS技巧操纵ChatGPT和Copilot等AI工具。通过将恶意代码伪装成无害文本,攻击者可诱骗AI批准危险指令。尽管微软已修补该漏洞,其他主要供应商反应迟缓。安全专家建议用户仔细核查AI助手推荐的所有代码。

March 18, 2026
AI安全Microsoft Copilot网络安全威胁
News

NVIDIA推出NemoClaw:为企业AI智能体打造防护装甲

在2026年GTC大会上,NVIDIA发布了新平台NemoClaw,旨在为AI智能体开发提供企业级安全防护。该平台基于流行的OpenClaw框架构建,在保持硬件灵活性的同时解决了隐私和控制等关键商业问题。随着AI行业从简单聊天机器人转向复杂智能体系统,NVIDIA此举使其在OpenAI等竞争对手中占据了新兴市场优势地位。

March 17, 2026
NVIDIAAI智能体企业科技
港大CLI-Anything工具:一条命令让任意软件变身AI友好型工具
News

港大CLI-Anything工具:一条命令让任意软件变身AI友好型工具

香港大学数据智能实验室发布开源工具CLI-Anything,可将任何软件转换为AI代理友好的命令行界面。这一突破性技术解决了UI自动化不可靠的痛点,为开发者提供了将GIMP、Blender和LibreOffice等专业工具与AI系统集成的强大方案。该项目发布后迅速获得广泛关注,短时间内即在GitHub上斩获超过17,000颗星标。

March 17, 2026
人工智能开发软件自动化开源
龙虾AI热潮引发安全担忧:官方发布安全使用指南
News

龙虾AI热潮引发安全担忧:官方发布安全使用指南

因自主能力被昵称为'龙虾'的爆款AI助手OpenClaw已引发安全专家警惕。随着全国用户拥抱这款数字助手,当局警告需防范数据窃取和系统劫持等风险。国家安全局紧急出台安全手册,提供实用建议帮助用户在享受龙虾便利的同时规避安全隐患。

March 17, 2026
OpenClawAI安全数字助手
News

Mistral AI推出Small4:三合一开源模型震撼登场

Mistral AI发布了其最新的开源力作——Small4模型。这不仅仅是一次常规升级,而是将三大强大功能整合于一体:逻辑推理、多模态处理和编程辅助。凭借其高效的128专家架构和可配置性能模式,开发者现在拥有了一个能适应不同需求同时降低计算成本的多功能工具。

March 17, 2026
AI模型开源Mistral AI
News

360 AI安全龙虾因基础安全漏洞翻车

360公司的新AI产品「安全龙虾」近期因安装包被发现包含SSL私钥这一基础安全疏漏而受到审查。该公司迅速回应称这是发布流程错误,并撤销了受影响的证书。虽然官方声称普通用户不受影响,但该事件引发了人们对AI产品质量控制的质疑。

March 17, 2026
网络安全AI安全科技事故