一个前端工程师在调试着色器时突然想到:如果2011年的程序员手里就有今天的AI工具,现在的网站会变成什么样?

这个问题来自Sylwia Laskowska——一位日常用大型语言模型(LLM,Large Language Model)写代码、却在新领域屡屡碰壁的开发者。她的发现有点反直觉:AI最擅长的,恰恰是让人停留在舒适区。

打开网易新闻 查看精彩图片

AI的舒适区,是"已有答案"的地盘

Laskowska的日常体验很典型。让AI写个下载图片的功能,返回的代码干净、地道、立即可用。"感觉像在作弊",她这样形容。

这些任务有个共同点:Rust、标准前端、常见模式——互联网上存在海量示例的领域。LLM本质上是在概率空间里做检索,训练数据越密集的地方,输出越可靠。

2011年的技术栈完美符合这个条件。PHP模板、jQuery、请求-响应循环——这些在当时已经成熟,文档和代码样本铺天盖地。如果AI突然降临,它能立刻生成大量"能跑"的代码。

但这里有个陷阱。

新技术的死亡谷:AI帮不上忙的地方

Laskowska的转折点出现在WebAssembly和WebGPU上。当她尝试用AI写WGSL(WebGPU Shading Language,WebGPU着色语言)着色器时,体验急转直下。

错误变得频繁。假设偏离实际。API被混淆。最终她放弃AI辅助,回到2010年代式的手动调试。

问题不在于AI变笨了。WebGPU和WGSL太新,训练数据稀疏,LLM开始"幻觉"——生成看起来合理但实际错误的代码。这不是技术故障,是结构性盲区。

2011年的假设实验里,这个盲区会出现在哪里?

当时"复杂客户端应用"尚未成为主流。React还要两年才发布,Vue和Angular的现代化版本更晚。单页应用(SPA,Single Page Application)的架构模式、组件化思维、虚拟DOM——这些概念要么不存在,要么极小众。

如果AI在2011年大规模应用,它会持续输出jQuery插件和服务器渲染模板。因为这就是它的"正确答案"。

加速的悖论:快,但可能快向错误的方向

技术演进有个常被忽视的维度:需求不是天然存在的,是被"能做的新事情"创造出来的。

2011年的开发者没有大规模抱怨"页面刷新太慢",因为大家都这样。是Google Maps和Gmail先把异步交互做出来了,用户才被"教育"出新的期待。然后整个生态被迫跟进。

AI的介入会改变这个链条。Laskowska的核心观察是:AI可能"安静地稳定现状",而非加速突破。

想象2011年的场景。产品经理要个功能,程序员用AI生成jQuery代码,两天上线。客户满意,团队轻松。为什么要冒险尝试陌生的客户端框架?AI给出的方案足够好、足够快、足够安全。

现代Web的底层假设——浏览器可以承载复杂应用状态——可能根本不会成为共识。或者推迟很多年。

工具与方向的博弈

Laskowska在文中提到自己的演讲主题:"Rewrite or Refactor? How to Safely Move Legacy Apps to Modern Frameworks"(重写还是重构?如何安全地将遗留应用迁移到现代框架)。这个题目本身就暗示了现实:技术债是常态,迁移是痛苦的。

她的演讲将在JSNation 2026进行。这个会议被描述为"所有JavaScript大牛都会出现的地方"。

有趣的是,如果2011年就有AI,这个会议本身可能都不会以现在的形式存在。JavaScript生态的爆炸性增长,很大程度上源于2012-2015年间框架和工具的疯狂迭代。AI的"稳定效应"可能压缩这个创新窗口。

当然,历史无法重演。但Laskowska的追问指向一个更当下的问题:今天我们用AI写什么代码?

如果LLM在2025年已经能流畅生成React组件,这是否意味着我们正在错过下一个"WebGPU时刻"?某个尚未被充分训练数据覆盖的技术方向,可能正因为AI的"好用"而被延迟发现。

作者的小插曲

文章里有个轻松的细节。Laskowska提到为了庆祝演讲确认,买了瓶无酒精啤酒,结果" somehow woke up feeling like I had a huge hangover"(不知怎么醒来感觉像宿醉严重)。她把这称为"new achievement unlocked"(新成就解锁)。

这个无关技术的片段,反而衬出了整篇文章的基调:一个从业者真实的困惑,而非技术布道。

她明确说自己"不是AI专家",只是足够了解RAG(Retrieval-Augmented Generation,检索增强生成)、推理、矩阵乘法、采样等概念,能舒适地使用这些工具。这种定位让她的观察更有分量——来自日常使用的摩擦感,而非理论推演。

那么,现代Web会存在吗?

Laskowska没有给出确定答案。她的核心贡献是提出一个被忽视的视角:AI的优化目标和技术演进的方向,并不天然一致。

LLM被训练来预测最可能的下一个token。在代码领域,这等价于"最主流的实现方式"。但技术史告诉我们,突破往往来自非主流——那些训练数据里还没出现、或者占比极低的模式。

2011年的假设实验因此有了现实意义。我们今天面对的不是"如果",而是"正在":AI辅助编程已经成为默认设置,它的偏见正在实时塑造代码库。

Laskowska在WebGPU上的碰壁经历,或许是个警示信号。当AI在新领域失效时,开发者被迫回到原始的手工调试——这种"倒退"反而可能是发现新大陆的必要代价。

如果AI在2011年就消除了所有摩擦,我们可能永远不会知道,那些摩擦原本会把我们推向哪里。

(全文完)