一首歌从创作者到听众耳中,需要经历采样、编码、传输、解码、播放等多个环节,每一个环节都是信号处理技术的精妙应用。

本文将带我们穿越时空,看看信号技术如何彻底改变了音乐的创作、传播和聆听方式。

1

从声波到0和1的魔法

要理解信号与音乐的关系,首先得回答一个根本问题:音乐是什么

从物理学角度来说,音乐本质上是声波——一种通过空气振动传播的机械波。

人耳能听到的频率范围大约在20Hz到20,000Hz之间,不同频率的组合就是不同音高的声音,而振幅的变化则构成了音量。

数字世界只能处理0和1,所以要让音乐进入数字领域,必须完成一次华丽的变身:模数转换(Analog-to-Digital Conversion)

这个过程包括两个关键步骤:

采样(Sampling)

以固定时间间隔"拍照"声波。

根据奈奎斯特定理,要完整保留音频信号,采样频率必须至少是信号最高频率的两倍。

CD音质采用44.1kHz的采样率,意味着每秒钟对声波拍照44,100次。

量化(Quantization)

给每个采样点赋予一个数字值

16位量化就像用65,536个台阶来表示振幅,这让我们几乎听不出量化噪声(理想情况下)。

采样定理的数学表达非常简单:f_s ≥ 2 × f_{max},其中f_s是采样频率,f_{max}是信号最高频率

这个公式奠定了整个数字音频的基础——无线电话音(8kHz)、CD音质(44.1kHz)、高解析度音频(96kHz或192kHz)都源于此。

2

音乐传输技术的进化史

音乐的"旅行"方式经历了多次变革,每一步都离不开信号技术的进步。

模拟时代(1877-1980年代)

爱迪生的留声机,通过机械振动直接在蜡筒上刻录沟槽,播放时再用唱针还原振动。

这完全是物理的信号传输——没有电,没有数字化。后来发展出的磁带、黑胶唱片,虽然介质不同,本质仍是模拟信号的物理存储与传输。

这一时期的"传输"是面对面的:我们必须拿到实体介质才能听音乐。

数字有线时代(1980-2000年代)

CD的出现标志着音乐进入数字时代,而真正的传输革命要等到互联网普及。

早期的MP3文件通过拨号上网传输,一首5MB的歌曲需要45分钟以上。随着光纤普及和ADSL技术成熟,下载时间缩短到几分钟。

此时的传输依赖有线网络,信号通过光电转换在光纤中高速传输。

无线革命(2000年代至今)

蓝牙技术(1999年诞生,2004年广泛普及)让音乐摆脱了线缆束缚。

蓝牙使用2.4GHz ISM频段,通过自适应跳频技术避免干扰。

早期蓝牙音频使用SBC编码,音质损失明显;后来的aptX、LDAC等编码已能接近CD级别的无线传输。

流媒体时代(2010年代至今)

各大音乐平台将音乐存储在了云端。

当我们点击播放时,音乐信号从数千公里外的服务器出发,经过多个路由节点,通过4G/5G/WiFi网络到达我们的设备。

这一过程涉及复杂的编解码(如AAC)、动态码率调整、抗丢包技术。

如今,一个典型的音乐传输链路包括:

  • 编码端:音源文件 → 压缩编码(减少数据量)→ 封装 → 网络传输

  • 传输层:TCP/UDP协议 → 路由选择 → 无线接入 → 可能的数据包丢失

  • 解码端:接收数据包 → 缓冲 → 解码 → 数模转换 → 扬声器/耳机

3

音质、延迟与完美传输的博弈

任何信号传输技术,都有其物理限制,音乐传输也不例外。

音频工程师和通信工程师一直在面对各种挑战:

压缩损失

无损音频(如WAV、FLAC)文件太大,对网络传输的要求比较高。

MP3、AAC等有损编解码通过去除"听不见"的频率来减小文件体积。

然而,什么频率"听不见"因人而异——发烧友能分辨320kbps MP3和FLAC的区别,而大多数人可能觉得128kbps已经足够。

网络延迟

延迟对实时音乐体验(在线直播、远程合奏)是影响极大的。

人类能察觉的音频延迟大约是20ms。4G网络平均延迟50-100ms,5G理论延迟1ms,实际约10-30ms。WiFi延迟波动更大(20-150ms)。

这就是为什么远程音乐表演通常需要专业设备和专线。

丢包与抖动

UDP协议不保证数据包可靠传输,但实时音频更看重低延迟而非完美无瑕。

少量丢包(<5%)人耳几乎察觉不到。

先进的抗丢包技术如前向纠错(FEC)会发送冗余数据,接收端用冗余数据 recover 丢失的数据包,避免重传带来的延迟。

带宽限制

高保真流媒体需要高带宽。

无损音频约1.4Mbps,高解析度(24bit/96kHz)约4.6Mbps。

在网络拥堵时,流媒体平台会自动降码率以保证连续播放——比如将最高码率从320kbps降至256kbps或更低。

协议选择

WebRTC专为实时通信设计,延迟低但抗网络波动能力有限;HLS/DASH更适合点播,延迟较高但有更好的缓冲机制。

音乐平台选择不同协议:Apple Music使用HLS,Spotify使用自有协议,而实时合奏服务使用低延迟协议如RTP/RTCP。

4

AI、5G与新音乐体验

技术仍在快速进化,音乐与信号的关系将更加紧密。

AI生成音乐

当AI不仅能传输音乐还能创作音乐,信号的边界变得模糊。

已经有AI模型可以根据文本描述生成音乐。这些模型使用大型神经网络学习音乐的时间序列特征,然后生成新的音频波形。

信号处理在这里既是输入(音频特征提取)也是输出(波形合成)。

空间音频与沉浸式体验

各种新技术让声音定位不再局限于左右声道。通过多声道阵列和头部相关传输函数(HRTF),音乐可以在三维空间定位

传输这样的音频需要更高带宽和元数据支持——信号不仅要传递音质,还要传递空间信息。

5G+AI切片网络

未来的网络可以为音乐应用"定制"传输路径。一场VR演唱会,观众可以用头盔"坐在"虚拟前排,歌手和乐器的声音根据虚拟位置精确传播。

这需要毫秒级延迟和极高的带宽,5G网络切片技术可专门为此分配资源。

脑机接口与情感音乐

最前沿的研究尝试直接从大脑信号中提取情感信息并转化为音乐。虽然仍处于实验阶段,但有研究机构已能通过脑电波(EEG)识别情绪状态并匹配音乐特征。

如果实现,音乐"传输"将变成从大脑到大脑的直接信号沟通。

音乐从未脱离信号技术独立存在,音乐的每一次"进化"都伴随着技术的飞跃。

采样定理保证了我们能够听到清晰的声音,压缩算法让海量音乐库装进口袋,网络传输让地球变成地球村,AI技术正在开创全新的创作方式。

下一次我们戴上耳机时,不妨想一想:我们听到的不仅是美妙的旋律,更是一百多年信号传输技术的科学智慧。

来源:中兴文档

编辑:测不准的小阳

转载内容仅代表作者观点

不代表中科院物理所立场

如需转载请联系原公众号

打开网易新闻 查看精彩图片