新智元报道
编辑:好困
【新智元导读】一个毫无代码的文本,竟连霸GitHub热榜第一。Karpathy的编程神技被化作「AI紧箍咒」,让乱写Bug的大模型瞬间老实!
就在刚刚,一个.md文件冲爆了整个GitHub!
本周新增44,465颗星,总星数61.6k。连续三天Trending日榜第一。
它叫CLAUDE.md,一个Markdown配置文件。
里面写着四条规矩,全部源自Karpathy对LLM编程陷阱的观察,用来管住AI编程时最常犯的毛病——
不确定的先问别瞎猜
代码能简短就别写长
没让你改的地方别碰
给目标别给步骤
把它丢进项目根目录,AI编程Agent就会自动读取并遵守里面的规则。
项目地址:https://github.com/forrestchang/andrej-karpathy-skills
如今,全网6万码农连夜抄作业,X上开发者已经炸了锅。
Kraggich感慨道,「一个Markdown文件冲上趋势榜第一,说明现在的瓶颈不在模型,而在模型周围的脚手架。这些'胶水'才是产品本身。」
Surajdotdot7从生产环境算了笔账,「模型选错了分支,运行了40分钟,最后碰壁失败。而提前澄清只需要30秒。」
Markdown里写了什么
故事的起点是今年1月26日。Karpathy在X上发了一条长帖,详细吐槽了AI编程Agent的各种毛病。
当天,一个叫Jiayuan Zhang的华人开发者就动了手。
他先是用Claude Code把这条帖子自动转化成了skills文件,并生成了约800行描述,然后让Claude自己审查自己,最后砍成了一段约70行的干净指令。
产物就是这个CLAUDE.md,相当于是在Agent脑子里装的一套行为准则。(现在也有了Cursor版)
里面的四条原则,每一条都精准对应了开发者用AI写代码时最常踩的坑。
原则一,编码前先思考。
你让AI「加个验证功能」,它不会问你要验证什么、严不严格,而是自己猜一个最复杂的方案,写了一大堆你根本不需要的代码。更糟糕的是,整个过程它不会表现出任何犹豫。
为了解决这个问题,文档在第一个原则中写了三条规定:
1. 不确定时必须停下来问,不能猜。
2. 存在多种理解时列出选项让用户选,而不是替你做决定。
3. 发现有更简单的方案时,主动说出来,该推回来就推回来。
原则二,简约至上。
你要一个简单的小功能,它给你写出一整套企业级架构,附带登录认证、安全校验、流量控制。
你说「能简单点吗」,它立刻砍掉大半,还来一句「当然可以!」说明它一开始就知道不用写那么多,但就是忍不住。
第二条原则,就是给这些问题预备的:
1. 没被要求的功能不写。
2. 只用一次的代码不建抽象层。
3. 没人要求的「灵活性」和「可配置」不加。
4. 不可能发生的异常场景不做错误处理。
检验标准就一条,一个资深工程师看了会不会说「太复杂了」。会的话,直接砍。
原则三,精确编辑。
你让它修一个bug,它改完bug顺手把旁边的代码也重构了,变量名换了,注释删了,代码风格也按它自己的偏好改了。最后你对比改动记录,改了30处,其中25处跟你的需求毫无关系。
于是,第三条原则给改动范围做了严格的限制:
1. 只动你被要求动的部分。
2. 匹配项目已有的代码风格,哪怕你觉得自己写得更好。
3. 看到不相关的问题,提一嘴就行,别动手。
4. 如果你的改动导致某些代码不再被使用,清理掉,那是你的责任。但之前就存在的问题,没人让你改就不要碰。
原则四,目标驱动。
AI特别擅长「循环到达标为止」这件事,那就别告诉它具体步骤,直接给它验收标准让它自己跑。
比如你要加一个功能,别说「写一个函数实现X」,改成「先写测试用例,然后让所有测试通过」。要修一个bug,改成「先写一个能复现这个bug的测试,然后让它通过」。
如果任务比较复杂,就要求AI先列出分步计划,然后每一步都带上验证方式。
因为,验收标准定得越清晰,AI能独立循环执行的时间就越长,你需要介入的频率就越低。
这是用AI编程时杠杆最大的一条原则。
谁做的?
这个仓库的作者叫Jiayuan Zhang,开源项目Multica的创始人兼CEO。
他做的Multica,就是把Claude Code、OpenCode、Codex CLI这些AI编程Agent统一管理起来,像真正的团队成员一样分配任务、汇报进展、交付代码。就连不会用命令行的人,也能通过它用上Claude Code级别的编程Agent能力。
正如项目介绍所说:
Your next 10 hires won't be human.
你接下来招的10名员工,都不会是人类了。
他们公司的代码100%由AI编写,每天消耗的token量超过1亿。
80%的代码,不用自己写了
回到Karpathy的原帖,他说的其实是一件更大的事。
作为一个编了20年代码的人,他说短短几周内,自己的编程工作流从「80%手写+20%AI辅助」彻底翻转成了「80%交给Agent+20%自己修补」。
他看着Agent死磕一个问题整整30分钟,要是人类早放弃了,而它就是不停地试,最后居然过了。
这种「feel the AGI」的时刻会让你意识到,工作的核心瓶颈之一「耐力」已经彻底被LLM炸开了。
但他也看到了硬币的反面。他预言了一个词,「Slopacolypse」。
2026年GitHub、arXiv、社交媒体上会涌出大量AI生成的低质量内容。生产力是真的,质量垮塌的风险也是真的。
甚至,他说自己已经开始感觉到手写代码的能力在萎缩。
就是那种,你可以看懂代码但写不出来的感觉。
为什么一个.md文件能炸成这样
在Karpathy看来,LLM编程带来的不只是加速,更是一种扩展,你能做到以前不值得做的事,能碰以前碰不了的代码。
如今,这个概念升级为「agentic engineering」,一种把AI当做需要明确目标、清晰边界和严格测试的协作伙伴来对待的工程学科。
andrej-karpathy-skills这个仓库,就是agentic engineering最早的「教材」之一。
它之所以炸了,核心在于它把一个顶级工程师的隐性知识,打包成了Agent可以直接读取的格式。
说到底,Karpathy不再只是一个你读的人,而是一个你的Agent可以直接继承行为的人。
这才是这个仓库真正疯狂的地方。
参考资料:
https://x.com/Voxyz_ai/status/2045899539526148193?s=20
https://github.com/forrestchang/andrej-karpathy-skills/blob/main/CLAUDE.md
热门跟贴