你有没有想过,一台合成器能同时发出多少个声音?
不是八个,不是十六个,甚至不是一百个。有人把数字推到了10240。
这个数字听起来像科幻小说里的设定,但它真实发生在一块巴掌大的FPGA开发板上。开发者Tsuneo Ohnaka没有走寻常路——他没有追求传统意义上的"复音数",而是换了一个完全不同的思路。
传统的合成器,不管是早期的机电乐器、模拟磁带系统,还是1960年代诞生的全电子波形合成器,甚至1980年代雅马哈的FM合成,都有一个核心瓶颈:电子复杂度决定了同时能响多少个音符。芯片贵、电路复杂,多一个声部就要多一份成本。
但FPGA不一样。这种可编程逻辑器件能在硅片上"画"出海量电路,多加几千个振荡器几乎不增加硬件开销。Ohnaka抓住这个特性,把10240个独立可控的振荡器塞进了一块Terasic DE10-nano板子。
关键来了——这10240个振荡器≠10240个"音色"。
他把它叫做"频谱引擎"。想象一下傅里叶变换:任何复杂的声音都可以拆解成不同频率、相位、振幅的正弦波叠加。通常我们用软件计算这些频谱点,再送进DAC变成声音。Ohnaka的做法是反过来的:直接在硬件里并行运行10240个真实振荡器,实时合成频谱。
没有CPU的指令循环,没有缓冲延迟,没有"先算完再输出"的等待。所有振荡器同时运行,瞬间完成频谱叠加。这就像把软件定义无线电的发射思路,搬进了音频合成的世界。
这种架构的野心很明显:它可以模拟几乎所有现有的合成方式——减法合成、FM合成、加法合成——但不需要软件生成波形的开销。波形不是算出来的,是"长"出来的。
Ohnaka放了一段演示视频:这台机器以80个复音同时演奏。10240个振荡器被组织成80组,每组128个振荡器共同塑造一个音符的频谱轮廓。声音是混沌的、密集的、几乎有些过载的——像一场精心控制的电子风暴。
这让人想起一个老问题:当技术极限被推倒之后,音乐往哪走?
1980年代,FM合成让数字音色普及;1990年代,采样技术让真实乐器进入键盘;2000年代,软件合成器把工作室装进笔记本电脑。每一次算力解放,都伴随一批人追问"这有什么用"。
10240个振荡器当然过剩。没有人的耳朵能分辨同时响起的上千个频谱分量,没有作曲理论需要这种粒度的控制。但过剩有时候是探索的前提——就像NASA不会问"为什么要看清冥王星的陨石坑",合成器开发者也不该被"实用性"过早束缚。
Ohnaka的工作真正的启示或许是:当硬件足够便宜,算法的边界就会移动。我们习惯了"采样→处理→输出"的音频流水线,但如果有足够的并行计算资源,整个流程可以重新想象。频谱不再是分析的结果,而是合成的起点。
这台机器目前还是个实验品。它的声音粗糙,演示简短,文档几乎为零。但站在10240个同时振荡的正弦波面前,你能感觉到某种旧秩序的松动——关于"数字音频应该怎么做"的默认假设,正在被一块几百美元的开发板动摇。
下一个问题留给音乐人:你会用10240个振荡器做什么?
热门跟贴