

当地时间 3 月 31 日,一个 59.8MB 的文件,彻底击穿了 Anthropic 精心构建的技术护城河。
这一天,AI 安全研究员 Chaofan Shou 在 npm 包管理仓库例行巡查时,发现一个不寻常的"赠品"—— Anthropic 旗下明星 AI 编程工具 Claude Code 在发布 2.1.88 版本更新时,意外将一份完整的源代码映射(Source Map)文件打包进去并公开分发。
打开这份文件,里面躺着的是超过51.2 万行 TypeScript 源码,共计4756 个源文件、40 余个工具模块。这些代码,原本应当被混淆、被保护,是 Anthropic 斥巨资构建的核心竞争壁垒。
就这样,它们以一种极其荒诞的方式,暴露在了全世界面前。
一次"低级失误",如何引爆一场 AI 信任危机
严格意义上,这不是一次黑客攻击,也不是外部入侵——它是一场由"配置疏忽"酿成的自我解除武装。
Claude Code 是以 npm 包的形式分发的。为了防止竞争对手逆向工程,Anthropic 对发布的 JavaScript 代码做了混淆处理。但问题出在,开发团队在发布 2.1.88 版本时,没有删除配套的 `.map` 文件。
Source Map,本是为了方便开发者调试——它能将压缩混淆后的代码"翻译"回原始的可读源码。这份文件出现在正式发布包中,等同于在银行金库门上挂了一把开着的锁。
消息在 X 平台(原 Twitter)上迅速扩散。数小时内,已有用户将代码完整镜像到 GitHub 仓库,该仓库迅速收获逾 5 万次 Fork,且尽管 Anthropic 随后发出了 DMCA 版权删除请求,各路镜像已如野草蔓延,难以清除。
Anthropic 发言人 Christopher Nulty 在事后回应媒体时,将其定性为"人为错误导致的发布打包问题,非安全漏洞",并强调"未涉及任何客户数据或凭证"。
这个声明,措辞精准,但在某种程度上也回避了更核心的问题:当"灵魂"而非"皮肤"被暴露,能叫做没有损失吗?
代码里藏着什么?未发布功能、内部指令,还有"电子宠物"
对于那些真正钻进源码里的研究者和开发者来说,这次泄露远比任何一份 PR 通稿都更能说明问题。
Tamagotchi 式"电子宠物":代码中发现了一个类拓麻歌子(Tamagotchi)的功能模块——一个虚拟宠物会待在用户的命令行输入框旁,并对编码行为实时作出反应。这个略显温情又略显奇特的彩蛋,让外界对 Anthropic 产品团队的真实气质有了意外一瞥。
" KAIROS "常驻后台智能体:更引人关注的是一个代号为" KAIROS "的功能。从代码结构分析,这很可能是 Anthropic 正在测试的" always-on agent "——一个能够在后台持续运行、不间断代理用户执行任务的智能体。这与此前 Claude Code 频繁更新代理能力的方向完全吻合。
"卧底模式"与权限绕过:部分代码揭示了 Anthropic 正在测试更高阶的权限控制策略,包括所谓"卧底模式"(stealth mode)和"绕过权限模式"。这些内容一旦落入恶意行为者手中,其潜在风险不可估量。
提示词工程的完整骨架:系统提示矩阵(System Prompt Matrix)的曝光,让外界得以窥见 Anthropic 如何用精确的 Prompt 工程来约束和操纵模型行为——这正是 AI 安全领域最不愿意公开的"内功心法"。
Gartner 分析师 Arun Chandrasekaran 对此表示,泄露代码可能给攻击者提供绕过 Claude 安全防护机制的线索,但他同时认为,对于 Anthropic 而言,长期影响或许更多体现在运营成熟度和公众信任层面,而非直接的安全威胁。
戏剧性反转:那个"被解雇的工程师",根本不存在
就在外界还在为"谁来为这次泄露负责"争论时,一封"认罪信"率先出现在社交媒体上。
一名自称为 Kevin Naughton Jr. 的工程师发帖称:是他在发布 Claude Code 时操作失误,将包含源码的打包文件推送了出去,并因此遭到 Anthropic 解雇。帖子措辞诚恳,自责之情溢于言表,迅速引发了广泛同情。
然而真相随后浮出水面——Kevin Naughton Jr. 根本不是 Anthropic 的员工。
他是一位创业者,公司名叫Ferryman。他借助真实发生的源码泄露事件,虚构了一套"内部工程师顶罪"的戏码,在引发广泛关注之后,帖子评论中悄悄附上了自家产品的优惠码。
这出闹剧,被 AI 圈人士评为 2026 年迄今为止最具讽刺性的营销事件之一。
但这场闹剧同时也提出了一个令人不安的问题:当一个虚假的"解雇声明"比官方回应更能引发公众共情,公众对 AI 公司官方话术的信任,究竟还剩几分?
屋漏偏逢连夜雨:一周内的第二次失误
如果说这是一次孤立的偶发事故,或许可以理解。但令人警觉的是,此次泄露发生的时间节点——它是 Anthropic 一周内遭遇的第二起重大数据失误。
就在数日前,Anthropic 已经因意外泄露了一个代号为" Mythos "的未发布新模型信息而陷入舆论风波。这次又出了源码泄露,接连"手滑"的背后,暴露的是 Anthropic 在 CI/CD 流程、发布管控以及内部审查机制上的系统性漏洞。
偏偏此刻,Anthropic 正处于准备 IPO 的关键窗口期。Gizmodo 等媒体直接指出:这次泄露发生在最糟糕的时机——投资者正在评估这家公司的工程严谨性、数据安全能力与内控管理水平。
开源与闭源的边界,AI 公司守得住吗
这次事件,表面上是一起发布流程的低级错误,深层折射的是 AI 行业面临的一个结构性困境:
商业 AI 的核心价值,正越来越依赖于"不可见性"——提示词、架构设计、安全防护机制——而这些恰恰是最难被真正保护的东西。
Claude Code 以 npm 包形式分发,意味着它天然运行在开发者本地环境中;开发者需要高度定制化使用,意味着工具必须具备一定的"可调试性"。这两个需求,与"绝对保密"之间的张力,几乎是不可调和的。
此次泄露的 51 万行代码,不包含模型权重,不涉及用户数据,但它暴露了 Claude Code 的系统架构、工具调用逻辑、多智能体协作框架,以及正在开发中的功能路线图。对于竞争对手而言,这是一份比任何公开论文都更有价值的技术情报。
Anthropic 表示,正在推出措施防止类似事件再次发生。但在一个 DMCA 删除函几乎无效、代码已被镜像数万次的世界里,"防止类似事件"的意义,更多是安抚公众情绪,而非真正的亡羊补牢。
覆水难收,这一次,时间站在互联网这边,而不是 Anthropic 那边。(本文首发钛媒体 APP,作者 | 硅谷 Tech_news,编辑 | 秦聪慧)
凯狮优配提示:文章来自网络,不代表本站观点。