Anthropic推出全新代码执行模型,显著提升AI效率
Anthropic通过代码执行模式革新AI代理性能
在人工智能系统取得重大进展之际,Anthropic在其模型上下文协议(MCP)框架中推出了突破性的代码执行模式。这项创新有望显著提升AI代理与外部工具和数据服务交互时的效率。
解决性能瓶颈问题

随着AI代理日益复杂化,往往需要与数百甚至数千种工具集成,传统方法已显现出关键局限性。当前将所有工具定义和中间结果直接嵌入模型上下文的方法存在多重效率问题:
- token消耗增加
- 响应时间延长
- 上下文溢出风险
"这些挑战代表了当今大规模代理系统面临的主要障碍,"Anthropic发言人解释道。
代码执行解决方案
新方法将MCP工具转化为"代码API",使代理能够根据需要动态生成和执行代码。这一范式转变带来以下关键优势:
- 按需加载工具:仅在需要时加载定义
- 外部数据处理:计算在执行环境中完成
- 最小化数据传输:仅将最终结果返回模型上下文
该架构特别适用于涉及以下场景的任务:
- 逻辑控制流程
- 循环处理
- 复杂数据过滤操作
实际性能提升
在实际测试中,改进效果令人惊叹。从Google Sheets提取10,000行数据的基准测试显示:
- 上下文使用量从约150,000 token降至约2,000 token(节省99%)
- 处理时间显著缩短
- 增强了大数据集处理能力且不会造成上下文溢出
该系统现在允许代理先对外部数据进行过滤,再将简洁结果返回模型——这是传统方法无法实现的流程,因为传统方法需要将整个数据集加载到上下文中。
增强的安全性与可维护性
代码执行模式还带来重要的附加优势:
数据隐私:敏感信息可在到达模型前在安全执行环境中预处理。 工具可维护性:模块化架构简化了单个组件的更新和修改。 系统可靠性:减少的上下文负载降低了复杂操作中的错误率。
Anthropic指出实施此方法需要支持性基础设施,包括安全沙盒和资源限制以确保执行安全。公司鼓励开发者在MCP生态系统中探索更多应用场景。
关键要点:
✨ 效率突破:动态工具调用减少99%处理开销 🔍 上下文优化:最小化向模型传输不必要数据 🔒 安全性增强:实现敏感数据在模型访问前的预处理



