打开网易新闻 查看精彩图片

前特斯拉AI总监Andrej Karpathy最近干了一件事——他把1小时的LLM入门课扔上YouTube,结果程序员圈子的反应像是被按了刷新键。这堂课没有公式轰炸,没有论文堆叠,只有一个产品经理式的追问:这东西到底怎么工作的?

Karpathy的解法很刁钻。他把大语言模型比作一个"被压缩的互联网"——不是比喻修辞,而是字面意义上的压缩。GPT-4的训练过程,本质上是把人类公开文字塞进一个文件,然后让这个文件学会解压出合理的内容。「编程正在从工程变成手艺活」,他在视频里甩出这句话,背景是Cursor和Copilot正在吃掉初级码农的饭碗。

打开网易新闻 查看精彩图片

这种类比的危险之处在于,它太好懂了。好懂到让人忽略背后的残酷:当模型能把Stack Overflow的解决方案"解压"出来,调试bug的能力反而成了稀缺品。Karpathy没有明说的是,手艺活的代价是——你得先成为那个被压缩进模型的人。

视频发布48小时后,Hacker News的热评已经换了几轮。有人算了一笔账:1小时的内容,相当于省下了读20篇论文的时间。但更多人卡在同一个地方——看完觉得自己懂了,打开IDE又懵了。这种"懂了的幻觉",恰恰是Karpathy设计的钩子。

课程结尾留了一个彩蛋。他放了一段GPT-4生成代码的录屏,然后暂停,问观众:你看出bug了吗?评论区至今没人敢确定答案。