
Anthropic 为 Claude 推出"自动模式":AI 自行判断何时需要审批
背景:开发者的两难困境
在 AI 辅助开发场景中,开发者长期面临一个核心矛盾:要么对 AI 的每一步操作都严密盯防,要么放任模型不受约束地运行——两者都有明显的代价。Anthropic 近日宣布为 Claude 加入"自动模式"(Auto Mode),试图解决这一困境。
核心变化:AI 自主决定何时"自动通过"
Auto Mode 目前处于研究预览阶段,本质上是将 Claude Code 中已有的 dangerously-skip-permissions 命令与一层安全防护机制相结合。
该模式的工作流程如下:
- 执行前审核&查验:AI 会在每个操作运行前进行安全检查,识别用户未主动请求的危险行为,以及潜在的提示词注入(prompt injection)攻击——即恶意指令隐藏在 AI 处理的内容中,诱使其执行非预期操作。
- 自动分流:安全操作直接放行,危险操作则被拦截。
Anthropic 表示,这样做的目的是将"何时请求用户许可"的决定权从人类手中转移到 AI 本身。此举也与行业大趋势一致:GitHub、OpenAI 等公司早已推出能够代表开发者执行任务的自主编程工具,Anthropic 则在此基础上更进一步。
值得注意的是,Anthropic 尚未公开安全层区分"安全操作"与"危险操作"的具体判断标准,这一点开发者社区普遍希望能看到更详细的说明。
影响与建议
适用版本:Auto Mode 目前仅支持 Claude Sonnet 4.6 和 Opus 4.6。
使用建议:Anthropic 强烈推荐在"隔离环境"(isolated environments,即与生产系统分离的沙箱环境)中启用该功能,以限制潜在问题的影响范围。
推送计划:Auto Mode 将于近期向企业版(Enterprise)和 API 用户开放。
此前 Anthropic 还推出了 Claude Code Review(自动代码审核&查验工具)和 Dispatch for Cowork(允许用户从任意位置向 AI 智能体分配任务的协作功能),Auto Mode 可视为其自主化能力矩阵的进一步延伸。


评论