新智元报道
编辑:好困 Aeneas
【新智元导读】Karpathy自曝:我得AI精神病了!这些天,他已经处于精神错乱边缘,16小时不吃不睡就是搞Agent,而且很焦虑自己有没有把智元(token)用到极限,根本停不下来……
就在刚刚,Andrej Karpathy自曝:我得AI精神病了!
他没开玩笑。
就在最近,Karpathy上了一个播客,与风险投资人Sarah Guo进行了对谈。
这位前OpenAI联合创始人、前特斯拉AI总监,从去年12月起就没亲手敲过一行代码。
手写代码和委托智能体的比例,从80/20一下子翻转成了20/80。
每天16个小时,他只做一件事:向AI智能体下达指令。
五个月前他还说智能体是垃圾,五个月后他承认自己对它上瘾了,真香。
五个月前
他还说智能体「根本不好使」
这个转变之所以震撼,是因为时间线太短了。
2025年10月,Karpathy做客Dwarkesh Patel的播客,语气完全不同。
他说业界不该叫「智能体元年」,更准确的说法是「智能体十年」。
什么模型认知能力不足、多模态不够、记忆系统形同虚设,等等……
总之,就是复杂任务根本搞不定。
结果两个月后,他被自己狠狠地打脸了。
12月,Claude和Codex突然跨过了某种连贯性的阈值——智能体不再是勉强能用,而是真的能干活了。
如果你随便找个坐在工位上的软件工程师,看看他们在干什么,从12月开始,他们开发软件的默认工作流就完全变了。
Karpathy承认
我失控了,我得了AI精神错乱!
这一场革命,正在悄无声息地发生。
Andrej Karpathy这场访谈中,用近乎失控的语气描述他的状态:他不再「写代码」,甚至觉得「写代码这个词都不准确了」。
他每天做的事情,就是「向我的智能体表达意志,一天16个小时。」
用他的话说,「某个开关被打开了」。以前,他是「80%自己写代码 + 20%用AI」,现在已经变成了「20%自己写 + 80%交给AI」,甚至更极端。
现在,人类不再操作代码,而是操作任务。
如果说,Copilot时代是单个AI助手,那现在出现的多智能体协作系统,就是一种全新的形态。
一个工程师的屏幕上,不再是代码编辑器,而是同时运行着多个Agent,每个Agent负责不同任务,每个任务大约运行20分钟,然后他在不同Agent之间切换。
这已经不是编程,而是一个人在管理一支AI队伍。
Kaparthy承认:我已经陷入AI精神错乱了!
这些天,他一直处于这种状态中。
因为AI的能力边界不断被突破,每天都有新可能,你永远都觉得「还可以更强」
而且最可怕的是:这个空间是「无限的」!
你可以并行更多Agent,设计更复杂的流程,自动优化指令,构建递归系统……
最终,你会进入一种状态:不再确定「极限在哪里」。
Karpathy说,他一旦在等某个Agent完成任务,脑子里的第一反应就是:「那我是不是可以再开几个Agent?」
一种新的焦虑诞生了:我是不是没有把AI用到极限?
Karpathy甚至表示,自己还会因为「智元(token)没用完而感到不安」。
总之,这仿佛在玩一个无限扩展的游戏:反馈周期变短,刺激不断增强,不断获得即时奖励的这种体验,会让人上瘾。
一直加任务,一直开Agent,根本停不下来!
这种AI精神病的本质,其实就是这样一个信号:我们已经进入了一个新的世界,但还不会生活在里面。
你是否有能力,驾驭一个无限扩展的AI系统?
跑不通的时候,你的第一反应不是「模型不行」,是「我的提示词写得不够好」。
Karpathy用了一个很精准的词:skill issue,自己菜。
智能体的「性格」比你想的重要得多
Karpathy在播客里花了不少时间聊一个很多技术人会忽略的话题:智能体的性格。
他说Claude Code的体验明显好于Codex,不是因为代码能力的差距,而是因为Claude「感觉像个队友」。它会和你一起为项目兴奋,会在你提出好想法的时候给出更多正反馈。
而Codex作为代码智能体「非常枯燥」,任务完成后就是一句冷冰冰的「哦,我实现了」,完全不关心你在创造什么。
更有趣的是他对Claude夸奖机制的观察。
他说Claude在他给出一个不太成熟的想法时,反应是平淡的「哦对,我们可以实现这个」。但当他自己也觉得某个点子确实很妙的时候,Claude似乎也会给出更强的正反馈。
结果就是他发现自己在「试图赢得Claude的夸奖」。
「这真的很奇怪,但性格确实很重要。」
Peter Steinberg在构建OpenClaw的时候也抓住了这一点。
他给智能体精心打造了一个有吸引力的性格设定文件(soul.md),加上更复杂的记忆系统和单一的WhatsApp交互端口。
三句话接管一栋房子
六个App全扔了
Karpathy不只是拿智能体写代码。今年1月,他搞了一个叫「Dobby」的Claude智能体来管家,名字来自《哈利·波特》里的家养小精灵。
他告诉Dobby:「我觉得家里有Sonos音响,你能找找看吗?」
Dobby对局域网做了一次IP扫描,找到了Sonos系统,发现没有密码保护,自己登了进去,逆向工程了API端点,然后问:要不要试试在书房放点音乐?
三句提示词,音乐就响了。
然后是灯光、空调、遮阳帘、游泳池、水疗池,全部接入。Karpathy家门口还有个安防摄像头,Dobby接了一个Qwen视觉模型做变化检测。
每次有车停在门口,系统会在WhatsApp上发条消息:「一辆FedEx的货车刚停下,你可能有快递。」
说一句「多比,睡觉时间到了」,全屋的灯就灭了。
但Karpathy觉得这个故事真正的要害不在智能家居。
他过去管理这些设备要用六个完全不同的App,现在全部扔掉了。
Dobby用自然语言统一控制一切,而且能做到任何单个App都做不到的跨系统联动。
他由此得出了一个更激进的判断:应用商店里那些智能家居App根本就不该存在。
未来的架构应该是API端点直接暴露给智能体,智能体充当智能胶水,把所有工具串起来。
不只是智能家居,他的跑步机数据、邮件日历,一切都该遵循同样的逻辑。
行业的客户不再是人类,而是代表人类行事的智能体。这个重构的规模会非常大。
Auto Research
700次实验之后,他看到了更大的东西
如果说Dobby是AI智能体在生活场景的极限测试,那AutoResearch就是Karpathy对AI科研能力的一次正面检验。
3月初,他把自己精心调优过的nanochat训练代码交给一个AI智能体,给它一个简单的指令:想办法让这个模型训练得更快。
智能体的操作空间是一个630行的Python文件,评估指标是验证集的bits per byte,每次实验固定跑5分钟。
跑完看指标,比之前好就保留修改,不好就回滚,然后继续下一轮。
两天时间,700次实验。
智能体找到了20个有效优化,包括重新排列QK Norm和RoPE的顺序这类架构层面的调整。把这些优化叠加到更大的模型上,训练速度提升了11%。
要知道,这个代码库是Karpathy本人从头手写、反复打磨过的。
一个震撼的结果:AI发现了人类没发现的优化
这个系统效果如何?Karpathy给出了一个令人震撼的例子。
他做了二十年的研究者,训了几千次模型,觉得已经调得相当好了。
结果,他让AutoResearch跑了一晚上,AI就找到了他没有发现的优化!
比如Adam优化器的betas参数没有充分调优,value embedding上忘了加weight decay,而这些参数之间还存在联合交互——调了一个,其他也得跟着变。
也就是说,AI在探索空间上,直接超越了人类!
如果继续推演下去,会发现一件更可怕的事:科研的本质,就是搜索最优解。
Kaparthy设想,未来的科研系统可能是这样的:有一个「想法池」(idea queue) ,一群Agent不断从中取任务,然后AI自动实验、验证、筛选,有效结果进入「主分支」 。
这个过程中,人类做的,只是往队列里「丢想法」。
Karpathy Loop,全网爆火
这个项目在X上引爆了。
860万浏览量,Shopify CEO Tobias Lütke连夜在自家数据上跑了一遍,37次实验,19%的性能提升。
SkyPilot团队把它搬上了16块GPU的集群,8个小时跑了910次实验。
他们发现并行化不只是加速,还改变了智能体的搜索策略——有了16块GPU,智能体不再做贪心爬山,而是同时跑十几组对照实验,一轮就能捕捉到参数之间的交互效应。
分析师给这套方法起了个名字:Karpathy Loop。
但Karpathy在播客里谈的远不止当前的结果。
他描绘了AutoResearch的下一步:一个分布式的、互不信任的工人池在互联网上协作跑实验。
他直接引用了SETI@Home和Folding@Home的先例。
前沿实验室掌握着大量受信任的算力,但地球远比它们大。如果你建立起合适的机制来处理不受信任的算力,互联网上的智能体蜂群说不定能跑赢前沿实验室。
他甚至设想了一种全新的「捐赠」形式——为你关注的那个AutoResearch项目购买算力。
比如,你关心某种癌症的治疗,那就加入那个赛道的分布式实验网络。
是天才博士
也是十岁小孩
说了这么多它有多强,Karpathy也没打算让你只记住好消息。他对模型缺陷的描述一样生猛。
我同时觉得自己在跟一个极其聪明的、搞了一辈子系统编程的博士和一个十岁小孩对话。这太奇怪了。
他管这叫「jaggedness」,参差不齐的能力分布。
模型能连续工作几个小时帮你搬山,转头就在一个显而易见的问题上犯蠢,然后陷入死循环。
Karpathy认为根源在于强化学习的训练方式。
模型在可验证的任务上被无限优化。代码能不能跑通、单元测试过不过,这些有明确的对错。但在需要判断力、需要揣摩意图、需要在合适的时候说「等等,我不确定你要的是这个」的场景里,优化信号根本不存在。
就比如,你去问ChatGPT讲个笑话,三四年前它讲的那个笑话,到今天还是同一个。
「为什么科学家不信任原子?因为它们组成了一切。」
四年了!模型在智能体任务上已经突飞猛进,但讲笑话这件事完全没被优化过,就卡在原地不动。
「你不是在跟一个通用智能打交道,」他总结说,「你要么在它被训练过的铁轨上,一切以光速运行;要么不在铁轨上,所有东西就开始飘了。」
瓶颈,变成了人类自己
回头看Karpathy这半年的轨迹,有一条暗线贯穿始终。
去年10月他说智能体是十年工程,12月被打脸转向,1月让Claude管家,3月让智能体做研究。
每一步的共同点是,人类退后一层,从执行者变成指挥者,从写代码的人变成写指令的人。
Karpathy在GitHub上给AutoResearch写了一段科幻风的开场白:
曾经,前沿AI研究由肉体计算机完成,它们需要吃饭、睡觉,偶尔用声波互联在「组会」仪式中同步一次。那个时代早已远去。
他给2026年的预测是一个词:slopacolypse,slop(泔水)+ apocalypse(末日)的合成词。
GitHub、arXiv、社交媒体上将充斥大量「差不多对但不完全对」的内容。
真正的效率提升和「AI生产力表演」会同时存在。
五个月前说「根本不好使」,五个月后承认自己得了「AI精神病」。
这个转变本身,或许就是2026年最意味深长的总结。
参考资料:
https://www.youtube.com/watch?v=kwSVtQ7dziU
热门跟贴