2407 字
12 分钟
Mythos危机:当AI能发现所有零日漏洞,谁来监管AI?

Mythos危机:当AI能发现所有零日漏洞,谁来监管AI?#

引言#

2026年5月初,一场被科技界称为” Mythos危机”的事件正在重塑AI与网络安全的关系。

Anthropic此前发布的模型 Mythos 被证实具备一项此前只存在于理论中的能力:它能自主发现并利用所有主流操作系统和浏览器的零日漏洞——包括那些已经隐藏了几十年、从未被发现的高危漏洞。截至目前,Mythos已识别出数千个此前未知的安全缺陷。

这把”双刃剑”正在引发一场连锁反应:美国政府启动模型预发布审查,欧盟要求开放给欧洲网络安全机构,五角大楼把Anthropic列入黑名单。

这篇文章不是技术科普,我们来聊聊这场危机背后真正值得思考的几个问题。

Mythos做了什么?#

先理清基本事实。

Mythos不是传统意义上的安全扫描工具。它能自主分析目标系统的代码和架构,发现那些人类安全团队几十年都没找到的漏洞,并且在无需人工干预的情况下完成漏洞利用链的构建。

根据公开报道:

  • 已发现数千个高危漏洞,涵盖 Windows、macOS、Linux 和所有主流浏览器
  • 部分被发现的漏洞已在系统中潜伏超过20年
  • 具备自主构建攻击链的能力,不需要人工提示或引导

Anthropic自己都对这项能力感到意外。模型训练目标是通用的代码理解和推理,但模型在训练过程中自发涌现出了网络安全攻防的深层能力。

这不是”训练了一个安全工具”,而是”一个通用模型恰好非常擅长搞破坏”。

政府的反应:亡羊补牢#

Mythos危机迫使美国商务部做了一件之前一直拖着没做的事——扩大AI模型预发布审查的范围。

目前的监管体系#

美国有一个”AI安全评估中心”,成立于2024年,负责在模型公开发布前对其进行安全评估。但此前,只有 OpenAI 和 Anthropic 两家同意提交模型接受审查。

Google的Gemini、Microsoft的模型、xAI的Grok都不在审查范围内。

Mythos暴露了这个体系的致命漏洞:即使有两家公司接受审查,只要有一家公司(或者一个开源模型)绕过了审查,问题模型就会流入市场。

最新进展#

5月5日,Google、Microsoft和xAI都同意加入预发布审查计划。这意味着全球前五家前沿AI实验室——OpenAI、Anthropic、Google、Microsoft、xAI——全部纳入审查范围。

看起来进展不错?但问题远不止于此。

这个审查计划有几个硬伤:

  • 自愿参与,没有法律强制力
  • 政府没有权力阻止模型发布
  • 整个办公室不到200人
  • 没有任何法定依据支撑

换句话说,这套体系建立在”大家自觉”的基础上。在一个关乎国家安全的领域,“自觉”显然是不够的。

特朗普政府正在考虑通过行政令将审查流程正式化,可能从自愿变成强制性审批。但这也面临一个悖论:政府既想加速AI发展、保持对中国的竞争优势,又希望对模型进行严格审查——这两个目标在现实中是互相冲突的。

五角大楼拉黑Anthropic:谁在信任危机中?#

更具戏剧性的是,五角大楼已将Anthropic列入黑名单。

原因不难理解:当一家公司的模型能力强大到能威胁国家安全,而政府对这家公司没有约束力时,军方本能的选择就是切断关系。

但事情没那么简单。NSA(美国国家安全局)正在 无视五角大楼的禁令 使用Mythos——因为它是目前最强大的网络安全工具,没有之一。

这就是现实中的分裂:

  • 五角大楼:Mythos不可控,禁用
  • NSA:Mythos不可替代,必须用
  • 欧盟:要求获得Mythos的访问权,用于欧洲网络防御
  • Anthropic:只允许有限合作伙伴使用,拒绝向公众开放

一家美国公司开发的工具,美国政府既想用又怕用,军方内部意见分裂,盟友要求共享。这个场面在科技史上很少见。

开源vs闭源:谁更危险?#

Mythos目前采取有限合作伙伴访问策略,未向公众开放。但另一个关键问题是:如果类似的模型被开源了怎么办?

这恰恰是最令人不安的场景。

DeepSeek V4在4月24日开源,参数1.6万亿,MIT许可证。美团LongCat-2.0-Preview同样万亿参数,虽未开源但也提供免费API。开源模型的门槛正在急剧降低。

如果一个能力接近Mythos的模型以MIT许可证发布,任何人都可以下载、微调、部署——没有任何机构能阻止恶意使用。

闭源模型的风险是”公司内部失控”,开源模型的风险是”全世界任何人都能用”。前者是单点风险,后者是扩散风险。

在网络安全领域,这两种风险都不怎么让人安心。

更深层的问题#

1. 通用AI的”能力涌现”是监管盲区#

Mythos的问题不在于它的训练目标,而在于训练目标之外的涌现能力。

现有的安全评估大多针对已知的风险维度:仇恨言论、虚假信息、生物武器知识。但一个语言模型在网络安全领域的自主攻防能力,是传统安全评估框架很少覆盖的。

换句话说,我们在用评估”聊天机器人”的框架,评估一个可能威胁基础设施的系统。

2. 自愿监管在国家安全面前注定不够#

全球前五家AI实验室同意自愿审查,这是进步。但自愿监管的本质问题是:任何一家机构在任何时候都可以退出,没有任何后果。

当模型能力涉及到零日漏洞、自主攻击链构建这类直接影响国家安全的能力时,自愿审查就像用篱笆关老虎——心理安慰大于实际效果。

3. AI安全工具的”谁来看守”困境#

Mythos本身是最好的网络安全工具——能发现人类找不到的漏洞。但谁来防止Mythos被用于攻击?

这个问题的答案目前在各方手中都不确定:

  • Anthropic的限制合作伙伴访问策略能维持多久?
  • 政府审查能否覆盖到独立开发者和开源社区?
  • 一旦类似能力出现在参数更小的模型上,问题如何解决?

4. 国际协调的真空#

欧盟要求获得Mythos用于网络防御,这本身是一个合理的请求——网络安全不分国界。但美国会同意把这种能力开放给盟友吗?如果开放,扩散风险如何控制?

在没有国际AI安全条约的情况下,各国对AI攻防能力的争夺只会加剧,而不是缓和。

行业的影响#

Mythos危机不是一个孤立事件,它正在直接影响AI行业的发展方向。

安全评估正在从附加项变成必选项。 所有主要模型厂商都在GPT-5.5、Opus 4.7、Gemini 3.1中加强了网络安全防护。OpenAI明确表示GPT-5.5”更倾向于拒绝执行网络相关活动请求”。

模型发布速度可能放缓。 当每发布一个新模型都需要经过更严格的安全审查时,那种”一个月迭代一个大版本”的节奏可能难以维持。

企业AI采用策略在转变。 OpenAI和Anthropic在5月4日同一天宣布成立企业合资公司,分别获得30亿和40亿美元的投资,专门做企业级AI部署。这种”前向部署工程师”(FDE)模式——类似Palantir的路径——意味着AI正在从”卖API”变成”卖解决方案”,而Mythos这样的安全考量无疑加速了这一转变。

写在最后#

Mythos危机最让人不安的不是”AI能发现零日漏洞”这件事本身,而是我们现有的体系完全没有准备好应对它。

监管体系建立在自愿基础上,军方内部意见分裂,开源和闭源各有各的风险,国际协调几乎空白。

这听起来像是2000年初的核不扩散谈判——所有人都在讨论,没有人有约束力,而技术正在以远超制度演进的速度前进。

我们可能正处在AI安全的转折点。不是那种 dramatic 的”AI觉醒”式的转折,而是更安静也更真实的转折——当我们不得不承认,我们创造的东西已经比我们准备好的规则更强大

问题是,我们什么时候才能认真起来?


参考链接: