「设计一把吉他,所有关键音符都显示在弦上。」
6个单词,0张设计图,0行技术规格。我把这句话丢进VibeCode Arena,让两个AI模型自由发挥。30秒后,它们交出了一个叫「Interactive Guitar Fretboard(交互式吉他指板)」的东西——12个音符横排在顶部,6根弦纵向铺开,点击音符,绿色高亮会标记出它在指板上的所有位置。
说实话,这比我预期的要多。但比我预期的要少的东西,更多。
AI做对了什么:概念骨架搭起来了
点击A#,指板上亮起多个绿点。这逻辑是对的——A#在标准调弦下确实出现在每根弦的不同品位。AI理解了「一个音符可以在多根弦上找到」这个吉他最核心的空间逻辑,没把它做成单线性的钢琴键盘。
交互也跑得通。音符高亮、多位置同步、视觉反馈链条完整。对于一段完全零上下文的6字指令,这属于「居然能跑」级别的产出。
但一个弹吉他的人看了会立刻皱眉。
四个缺口:AI没弹过琴
没有品丝编号。你看到弦上有个绿点,但不知道那是第1品还是第11品。工具的目的是告诉你「A#在低音E弦第6品」,现在它只告诉你「A#在这条线上的某个地方」。方位感断了。
没有声音。点击音符,眼睛亮了,耳朵闲着。学指板的核心是视听联动训练,现在它是个静音地图。AI显然没理解「吉他」和「指板示意图」的区别。
没有品位标记。真琴在3、5、7、9、12品有定位点,这是肌肉记忆的地标。AI的指板光秃秃的,读图成本比实际琴还高。
音位可能不准。部分高把位音符在特定弦上被截断了,标准吉他至少到12品,AI的版本看起来短了一截。
这6字实验真正测的是什么
不是AI会不会写代码。是两个模型对「吉他」这个词的隐含知识库长什么样。
它们显然爬过吉他教程网站,知道指板长什么样、音符怎么分布。但它们的训练数据里,「可交互的吉他学习工具」和「吉他指板静态图」被混在一起了。结果就是一个视觉正确、体验残缺的中间态——像背过琴谱但没摸过琴的人画的示意图。
最有趣的是缺口的方向性:AI优先保证了「能跑」和「看起来像」,牺牲了「能用」和「符合肌肉记忆」。这是当前AI生成工具的普遍优先级排序,也是产品经理最头疼的部分——用户不会因为你「做了70%」而付70%的钱,但AI的评估函数里,70%和100%的梯度差可能不够陡峭。
原作者把这两个半成品开源了,抛出一个问题:你能把它们修到可用了吗?
如果是你,会优先补声音、加品丝号,还是重写音位计算逻辑?
热门跟贴