昨天还在跟同事聊说 Anthropic 这家公司的安全意识挺强的毕竟天天把AI 安全挂在嘴边。结果今天一早就被打脸了。Claude Code 的完整源代码在 npm 上裸奔了。不是几行是整整51.2 万行TypeScript 代码1900 多个文件全须全尾地躺在那里谁都能下载。一个实习生都不会犯的错误事情是这样的。安全研究员 Chaofan Shou 在 X 上发了一条推文附了个下载链接。点进去一看好家伙Anthropic 的当家产品 Claude Code 的源码压缩包。几个小时之内这条推文的浏览量冲到了 530 万。评论区有人喊“快给 Dario 打电话”Dario Amodei 是 Anthropic 的 CEO。还有人直接爆了粗口。更绝的是有个叫 realsigridjin 的开发者手速贼快立马把代码备份到了 GitHub仓库名叫instructkr/claude-code标注为研究用途。等 Anthropic 反应过来紧急删包、发新版已经晚了。GitHub 上的星星早就破千代码在互联网上永久存档。怎么泄露的说出来你都想笑。他们往 npm 发包的时候忘了删 .map 文件。做过前端或者 Node.js 开发的朋友都知道.map 文件Source Map是干嘛的——就是把压缩后的代码映射回原始源码方便本地调试。这玩意儿在正式发布时是必须删掉的基本操作写在每个新手教程的第一页。结果 Anthropic 这种估值 180 多亿美元的 AI 独角兽居然在这个环节翻了车。而且这不是第一次。2025 年 2 月他们就因为同样的问题泄露过早期版本的代码。同一个坑摔两次。代码里藏着什么如果只是普通的业务代码泄露顶多算个安全事故。但开发者们下载完源码一看直接炸了。这哪是什么简单的 API 封装这是一个完整的 AI Agent 操作系统。40 多个工具模块从文件读写、Bash 命令执行到 Web 搜索、子 Agent 生成每个工具都有精细的权限控制和错误处理。5 万行的大脑单文件QueryEngine.ts就有近 5 万行代码负责理解用户意图、规划执行路径是整个系统的中枢神经系统。多智能体协调器支持并行任务处理多个 Claude 实例可以分工合作、互相通信。但这都不是最劲爆的。真正让开发者们兴奋的是代码里藏着一大堆从未公开的实验性功能。赛博宠物、AI 做梦、卧底模式…BUDDY终端里的电子宠物代码里有一套完整的电子宠物系统类似当年的拓麻歌子Tamagotchi。18 个物种、稀有度等级、闪光变种、属性统计调试能力、耐心值、混乱度、智慧值…最骚的是这个宠物是由 Claude 在第一次孵化时亲自撰写灵魂描述的。有开发者已经跑通了截图在终端里养起了自己的 AI 宠物。KAIROS永不下线的 AI 助手这是一个常驻后台的守护进程模式。Claude 会持续监视你的项目记录操作日志每天半夜还会自己做梦——把当天学到的东西整理成长期记忆。触发条件也很讲究距离上次做梦超过 24 小时、至少完成 5 次会话、获取到整合锁。换句话说这是一个有记忆的、真正活在你电脑里的 AI。ULTRAPLAN30 分钟的深度思考遇到复杂任务可以启动远程规划会话调用 Opus 4.6 模型在云端容器里思考最多 30 分钟然后传送结果回本地。Undercover Mode卧底模式这个最讽刺。代码里有个专门设计的子系统当检测到是 Anthropic 员工通过USER_TYPEant环境变量识别在公共仓库操作时会自动激活。它会注入系统提示禁止在提交记录里出现内部模型代号比如 Capybara、Tengu 这些动物名、未发布的版本号、内部工具名、甚至禁止提及自己是 AI。专门用来防止信息泄露的功能结果整个系统自己被泄露了。草台班子理论再次被验证说实话看到这种新闻我的心情挺复杂的。一方面Anthropic 的工程师是真的厉害。从代码质量、架构设计到那些充满想象力的实验功能能看出这是一群真正懂 AI、爱 AI 的人。40 多个工具模块的权限控制、近 5 万行推理引擎的思维链调度、多智能体的协同机制…这些工程细节足够国内的 AI 团队学一阵子了。但另一方面他们的安全意识简直像个初创公司。.npmignore 配置失误这种错误实习生都不该犯。五天内两次重大泄露3 月 26 日刚因为 CMS 配置错误泄露了 Claude Mythos 模型的信息很难让人相信这是偶然。更值得玩味的是时间点。泄露发生在 3 月 31 日愚人节前一天。代码里 BUDDY 系统的随机数种子盐值是friend-2026-401预告窗口是 4 月 1 日到 7 日。有人怀疑这是精心策划的彩蛋营销。但看看泄露的代码规模——51 万行1900 个文件工程细节之完整不太像是临时编造的。而且 Anthropic 最近的麻烦不止这一件API 的 Token 消耗异常 Bug 还没修好用户额度像漏水一样狂掉。屋漏偏逢连夜雨。对我们有什么影响先说结论普通用户不用担心。泄露的是 CLI 客户端的实现代码不涉及用户数据也不涉及 Claude 核心模型的权重。但对开发者来说这是一次意外的宝藏。GitHub 上的镜像仓库已经星星过万全球开发者都在研究这份野生开源的代码。Claude Code 的 Agent 架构、工具设计、提示词工程…这些原本属于商业机密的生产级实践现在所有人都能学习。某种程度上这可能加速整个 AI Agent 赛道的技术迭代。对 Anthropic 的竞争对手来说这更是送上门的情报。Claude Code 为什么好用它的 Agent harness 是怎么设计的权限逻辑怎么做的现在一目了然。写在最后这件事给我最大的感触是再厉害的 AI 公司底层也是一群人在写代码。是人就会犯错是代码就会有 bug。Anthropic 一直给人一种技术理想主义的感觉强调安全、对齐、负责任地开发 AI。但连续的安全失误让这种形象打了折扣。不过换个角度想这次泄露反而让开发者们看到了 Anthropic 的野心——他们不只是在做一个更好用的 Copilot而是在构建一个完整的 AI 操作系统。赛博宠物、会做梦的 AI、30 分钟的深度思考模式…这些功能如果正式发布可能会重新定义AI 编程助手的边界。只是没想到是以这种方式提前曝光的。世界确实是个巨大的草台班子。但有时候草台班子的失误反而让我们看到了幕后的精彩。