年度最大AI安全笑话:Anthropic核弹级网安大模型Mytthos被网友白嫖

硅谷最标榜“安全”的 AI 巨头 Anthropic,最近闹了个大笑话。
据彭博社爆料,Anthropic 那个被视为“核武级”的未发布模型 Mythos,还没等正式交付给那些战战兢兢的华尔街大行和政府机构,就先被一帮在 Discord 频道里“寻宝”的民间爱好者给“白嫖”了。
讽刺的是,Anthropic 曾公开宣称 Mythos 拥有识别并攻击所有主流操作系统、浏览器的恐怖能力,甚至为此专门搞了个“玻璃翼计划”(Project Glasswing)来严密控制分发。
结果呢?这群未经授权的用户既没有使用复杂的提示词注入(Jailbreak),也没有靠什么量子计算破解,而是靠着“合理的猜测”和“猪队友的助攻”,大摇大摆地走进了实验室。
一场极其“不 AI”的安全事故
这起事故最让安全圈汗颜的地方在于:它太“传统”了,传统到配不上 AI 时代的叙事。
根据知情人士透露,这群玩家进入 Mythos 系统的路径主要有三条:
- 供应链泄露: 利用一家 AI 初创公司 Mercor 此前的泄露数据,摸清了 Anthropic 内部模型命名的“套路”。
- 社会工程与外包漏洞: 其中一名用户本身就是 Anthropic 某家第三方供应商的外包员工,手里握着合法的访问权限。
- 暴力枚举的“穷举法”: 靠着对 API 命名规则的侧写,用自动化脚本在那些没加锁的 GitHub 页面和测试域名里“扫货”。
翻译成白话就是:Anthropic 花了几亿美金把门锁做得厚如坦克,结果把钥匙丢在了门口的地毯下面,还顺便在门口贴了个条:“钥匙就在地毯下,一般人我不告诉他”。
消失的“访问层”:AI 实验室的集体盲区
这次事故撕开了 AI 行业的一块遮羞布:大家都在痴迷于“模型安全”,却忘了“系统安全”。
在目前的 AI 安全架构中,存在两个完全独立的位面:
- 模型层(Model Layer): 这是 Anthropic 们的拿手好戏。搞“宪法 AI”,做红队对抗,研究权重保护,防止模型教人造炸弹。这是“核武器”的保险栓。
- 访问层(Access Layer): 这是最枯燥的 IT 苦活。凭证管理、API 命名不可猜测性、供应链合规、SRE 运维纪律。这是“核武库”的大门守卫。
尴尬的事实是:多数顶级 AI 实验室的安全资源高度向模型层倾斜,而访问层却在沿用传统的、执行质量参差不齐的 IT 框架。
Anthropic 的工程师们可能正在为模型是否具有“反社会人格”掉头发,但负责部署 API 的部门却为了图省事,给新模型起了一个极其好猜的后缀。这种“运营纪律”的缺失,是典型的**“马奇诺防线”**——正面固若金汤,侧翼全是漏洞。
谁该为“核武”丢了钥匙负责?
Anthropic 在声明中极力撇清关系,称目前没有证据表明其内部系统受损,锅主要在“第三方供应商环境”。
但这恰恰是问题的核心。当 AI 模型开始具备“改变网络战争形态”的能力时,它的安全边界就不再仅仅是那几千个 GPU 集群,而是延伸到了每一个能接触到 API 的外包测试员、每一家合作的初创公司。
这就好比,你把家里的金库钥匙给了邻居一份,结果邻居把钥匙弄丢了,你不能指责邻居,你得指责当初为什么要设计一个能被轻易配出来的钥匙。
这次进入 Mythos 的用户据称只是为了“建个简单网页”玩玩,并无恶意。但下次呢?
CTOCIO观点:AI 安全不该只有“对齐”
如果说这次事故给了行业什么启示,那就是:请把 AI 当成一份普通的软件业务来管。
别再沉迷于探讨 AI 是否会产生意识这种宏大命题,先去检查一下 API 密钥有没有写在 GitHub 的公共仓库里,去看看第三方外包员工的权限有没有及时回收。
AI 的“核安全”如果倒在“猜密码”这种低级错误上,那不仅是技术灾难,更是行业笑话。
对于 Anthropic 来说,与其不断推销 Mythos 有多强大,不如先给自家的 SRE(站点可靠性工程师)们涨点工资,顺便给所有合作方做一次最基础的防泄密培训。毕竟,通往天网(Skynet)的第一步,往往只是因为某个程序员少打了一个随机字符。
第一时间获取面向IT决策者的独家深度资讯,敬请关注IT经理网微信号:ctociocom
除非注明,本站文章均为原创或编译,未经许可严禁转载。
相关文章:




