来源:AI寒武纪
昨天我写文章介绍了Karpathy的630行代码的AI自动研究员项目,今天这个项目更完整的构想的来了,毫不夸张的说这玩意很有可能就是AGI的雏形
还不了解的情况的看我昨天的文章:
这里我也简单总结一下:
起初是Andrej Karpathy 把 autoresearch 项目整理成了一个独立的精简仓库。
核心结构是把 nanochat LLM 训练代码压缩到单 GPU、单文件、约 630 行。运行逻辑是:人负责迭代 prompt(.md 文件),AI agent 负责迭代训练代码(.py 文件)。
目标是:让 agent 在没有任何人工介入的情况下,无限期地推进研究。
上图里每个点代表一次完整的 LLM 训练,每次恰好跑 5 分钟。agent 在 git feature branch 上自主循环工作,持续积累 commit,寻找验证损失更低的配置——神经网络架构、优化器、各类超参数,全部自己调。
你可以用这个框架来比较不同 prompt、不同 agent 的研究进展。
仓库地址:https://github.com/karpathy/autoresearch
下一步:异步大规模 Agent 协作
Karpathy 说,autoresearch 的下一阶段要解决的问题是:多 agent 异步大规模协作。
目标不是模拟一个博士生,而是模拟一个由博士生组成的研究社区。
现有代码是同步的,沿单一研究方向串行增长 commit。但原始仓库更像一颗种子——从中可以长出来自各个 agent、面向不同研究方向或不同计算平台的 commit。
Git/GitHub 在这件事上接近但并不完全合适。它有一个隐含假设:存在一个主分支,其他分支只是临时分叉出去再合并回来。但在这个场景里,你根本不想合并——你只想吸纳和积累各条分支上的 commit。
Karpathy 尝试了一种轻量原型:让 agent 把一夜运行的结果整理成摘要发到 Discussion,或者开一个 PR 保留精确 commit 记录。然后,下一个 agent 可以先用 GitHub CLI 读取这些 Discussion 和 PR 获取灵感,跑完自己的研究后,再贡献一篇发现报告回去。
链接:
https://github.com/karpathy/autoresearch/discussions/43
他承认还不确定这套机制最终该长什么样,但认为这是一个比 autoresearch 仓库本身更大的想法:agent 原则上可以轻松管理和协作处理跨任意分支结构的数千个 commit。当智能、注意力和执行力不再是瓶颈,现有的协作抽象会承受越来越大的压力。
一个附带脑洞
在那个神经网络架构下,验证损失的全局最小值就藏在权重空间某处。而在整数空间里,某个随机种子可以直接把它给你。
用暴力搜索种子来训练神经网络——Karpathy 觉得这个思路值得被正式化。
有人开始押注 AGI 时间线
Hyperbolic 联合创始人兼 CTO Yuchen Jin 曾和马斯克打过一个赌:如果 AI 在做 AI 研究和工程方面能超过 Andrej Karpathy,那就算 AGI,他赌这件事 2026 年不会发生。
现在他说,自己开始觉得可能要输了。
因为Andrej Karpathy可能已经构建出了AGI原型,代码不重要,重要的伟大的构想,现在问题成了成千上万的Agent如何协作,或许2026年我们就会有答案。
阅读最新前沿科技趋势报告,请访问21世纪关键技术研究院的“未来知识库”
未来知识库是 “21世纪关键技术研究院”建 立的在线知识库平台,收藏的资料范围包括人工智能、脑科学、互联网、超级智能,数智大脑、能源、军事、经济、人类风险等等领域的前沿进展与未来趋势。目前拥有超过8000篇重要资料。每周更新不少于100篇世界范围最新研究资料。 欢迎扫描二维码或访问https://wx.zsxq.com/group/454854145828进入。
截止到2月28日 ”未来知识库”精选的百部前沿科技趋势报告
(加入未来知识库,全部资料免费阅读和下载)
热门跟贴