Anthropic 藏了一个「不敢公开」的模型,却联合 12 家巨头发起了史上最大网络安全行动
2026/4/14 20:48:18 网站建设 项目流程



有个消息最近在安全圈炸开了锅,但主流媒体还没怎么认真讲透。

Anthropic 悄悄训练了一个新模型,代号Claude Mythos

在他们自己的内部文档里,这个模型被描述为「有史以来最强大的 AI 模型」,「在网络安全能力上,目前远超任何其他 AI 模型」。

然后他们说:这个模型不打算公开发布。

不是"还没准备好",是主动选择不发布。原因只有一个——它太危险了。


Mythos 到底有多强

先来看几个数字。

过去数周,Claude Mythos Preview 在没有公开的情况下已悄悄运行起来,结果是:在每一个主流操作系统和浏览器里都发现了数千个高危零日漏洞。

零日漏洞是什么概念?就是那种软件厂商自己都不知道存在的安全漏洞——攻击者一旦利用,防御方连反应时间都没有,因为补丁还不存在。

更让人不安的是其中一个细节:被发现的漏洞里,最老的一个是 OpenBSD 系统里一个存在了27 年的 bug。OpenBSD 这个系统以"极度重视安全"著称,它的代码被无数安全专家审查过。一个藏了 27 年的漏洞,被 AI 找出来了。

Anthropic 自己的评价是:Mythos 的漏洞挖掘能力已"超越除最顶尖人类之外的所有安全研究员"

这句话换个角度理解:全球大概只有极少数顶级安全专家能做到 Mythos 能做的事,而 Mythos 可以 24 小时不间断地跑。


玻璃翼计划:先把矛交给盾

既然不对外发布,Mythos 能干什么?

Anthropic 的答案是:Project Glasswing(玻璃翼计划)——联合 12 家科技与安全巨头,把这把"矛"交给防御方先用。

加入联盟的名单相当豪华:

AWS、Apple、Broadcom、Cisco、CrowdStrike、Google、JPMorganChase、Linux Foundation、微软、英伟达、Palo Alto Networks

这些公司可以在自己的防御性安全工作中使用 Mythos Preview,并将发现的漏洞和学到的方法反馈给全行业。

除了这 12 家,Anthropic 还向另外 40+ 个开源软件和关键基础设施组织开放了访问权限,让它们用 Mythos 扫描和加固自己的系统——包括大量你可能每天都在用的开源项目。

钱的层面:Anthropic 承诺提供高达1 亿美元的使用积分,并向开源安全组织捐出400 万美元

用他们自己的话说,这是一次"紧急行动"——在进攻方能力扩散之前,让防御方先抢到这把武器。


但这个决定本身就是一个信号

先说清楚:Anthropic 这次做法是负责任的。

他们有能力公开发布,选择不发布。他们没有把技术卖给出价最高的人,而是优先给防御方用。这是一家 AI 公司在"能力已经超出安全边界"时的正确处理方式。

但这个事本身透露出来的信号,比措施本身更值得关注:

AI 在网络安全领域的进攻能力,已经率先跑到了防御能力的前面。

这不是将来时,是现在时。

Anthropic 在公告里直接说:「鉴于 AI 进步的速度,这种能力扩散到无法安全部署它的行为者手中,只是时间问题。后果——对经济、公共安全和国家安全——将是严重的。」

这里有个残酷的逻辑:Mythos 现在掌握在 Anthropic 手里,选择权还在。但技术竞争不会停。六个月后,Mythos 级别的能力可能就不是只有 Anthropic 才有了——谁也拦不住同等能力出现在其他地方。

CrowdStrike、Palo Alto Networks、SentinelOne 等传统安全公司的股价,在 Mythos 信息泄露出去后,集体跌了 5%~11%。市场在做一个判断:如果 AI 可以自动找漏洞,传统安全产品的护城河还有多宽?


开发者该怎么理解这件事

如果你是写代码、跑服务、做 AI 应用的开发者,这件事跟你直接相关。

先说好消息:玻璃翼计划会产出大量公开的漏洞修复和安全建议。开源项目受益最直接,很多你用的基础库接下来可能会有大批安全补丁推送。

坏消息:这件事提醒了所有人,AI 自动化漏洞挖掘的能力已经到了「不是会不会,而是谁先用」的阶段。防御工具没跟上之前,攻击面在快速扩大。

具体能做的:

  • 依赖库要及时跟进安全更新,未来这个频率会加快
  • 如果在跑 AI 应用,特别注意 prompt injection、数据泄露、API 密钥管理这几个方向
  • 关注 MCP(Model Context Protocol)生态的安全进展——AI Agent 大规模联网操作,会带来新的攻击面

对于做 AI 应用开发的团队,底层模型的选择和切换能力也会变得更重要。安全能力不一样的模型,在处理敏感任务时的风险差异会越来越大。

这里顺便提一下:如果你在评估不同模型用于安全相关场景,HAI 提供了统一的多模型接入入口,包括 Anthropic、OpenAI、Google、DeepSeek、千问等主流厂商模型,方便按场景灵活切换,不用对每家厂商单独做集成。


最后说一句

玻璃翼蝴蝶的翅膀是透明的——可以飞翔,但没有遮蔽。Anthropic 选这个名字,多少有点自知之明。

这次他们做了一件值得肯定的事:能力到了危险边界,主动选择约束而不是竞速发布。这个示范比任何技术报告都重要。

但一次好的决定解决不了结构性问题。AI 军备竞赛不会因为一家公司的克制就停下来。接下来几个月,类似的能力会在更多地方出现——那时候,谁先用,怎么用,用来防还是用来攻,才是真正的关键变量。

我们可能正站在一个分水岭上,只是大多数人还没意识到。

Build with HAI|portal.hai.network,一站接入全球顶尖 AI 模型。

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询