
Anthropic 安全大模型 Mythos 泄露:未授权用户已通过第三方供应商访问
事件概述
据 Bloomberg 报道,Anthropic 近期发布的企业安全 AI 工具 Mythos 已被一群身份不明的未授权用户获取。这是一款专为网络安全场景设计的 AI 模型,Anthropic 方面曾警告,若该工具落入不良行为者手中,可能演变为强大的黑客攻击手段。
目前 Anthropic 已确认正在调查此次泄露事件。
泄露途径
未授权用户通过一个私人在线论坛获取了 Mythos 访问权限。调查发现:
- 第三方供应商是此次泄露的关键节点——用户利用了该供应商的环境漏洞
- 攻击策略之一涉及滥用一名 Bloomberg 采访对象的"访问权限",该采访对象目前受雇于为 Anthropic 工作的第三方承包商
- 攻击者使用了社会工程学手段,结合对 Anthropic 其他模型部署格式的了解,成功猜测了 Mythos 的在线位置
用户群体特征
- 该论坛成员主要活跃在一个 Discord 频道,专门搜集未发布 AI 模型的相关信息
- 小组成员获得 Mythos 后持续使用至今,并向 Bloomberg 提供了截图和实时演示作为证据
- 消息人士透露,该群体的目的主要是"体验新模型",而非制造破坏
Mythos 发布背景
Mythos 是 Anthropic 在 Project Glasswing 项目下推出的安全 AI 产品,采用限量的供应商早期访问模式:
- 首批合作方包括 Apple 等大型企业
- 有限发布的目的正是为了控制风险、防止滥用
- Anthropic 明确指出,该工具若被武器化,可能从"加固企业安全"变成"攻击企业安全"
Anthropic 回应
Anthropic 发言人在接受 TechCrunch 采访时表示:
"我们正在调查一份报告,称有人通过第三方供应商环境对 Claude Mythos Preview 进行了未授权访问。"
同时强调,截至目前调查未发现此次未授权活动对 Anthropic 内部系统造成任何影响。
影响与建议
若泄露属实,对 Anthropic 将带来多重风险:
| 风险维度 | 具体表现 |
|---|---|
| 商业信誉 | 企业安全产品本身存在访问漏洞,影响客户信任 |
| 企业客户 | Apple 等首批合作方可能重新评估参与意愿 |
| 竞争格局 | 若被竞争对手获取,可能削弱 Project Glasswing 的战略价值 |
对于正在评估 AI 安全工具的企业而言,此次事件也提醒:在引入外部 AI 能力时,第三方供应链的安全审计与访问控制同等重要。


评论