2005年,一个听起来像科幻的设想被提出:无线电信号互相干扰时,能不能顺便把计算做了?19年后,麻省理工团队把这个设想变成了原型机——5G网络容量提升47%,延迟砍掉一半。
这不是实验室里的纸上谈兵。自动驾驶车队在暴风雪中交换路况数据、工业传感器实时监控上千台设备、智能家居设备同时响应——这些场景都在倒逼网络做一件反直觉的事:把干扰从敌人变成员工。
传统网络:先搬家,再算账
现在的无线通信像一条流水线。数据先从A点搬到B点,到了地方再拆开处理。天气好的时候没问题,所有设备各说各话,频道够用。但暴风雪一来,几百辆车同时广播路面结冰、前车急刹、能见度骤降——频道瞬间堵死,云端服务器也被海量数据淹没。
麻省理工电子工程与计算机科学系副教授Muriel Médard打了个比方:「传统网络像在嘈杂餐厅里,两个人必须轮流说话才能听清。OAC(空中计算)让所有人同时喊数字,声波在空气里自己加起来,你听到的就是总和。」
这个「总和」就是关键。当多个设备同时发射信号,电磁波在物理层面自然叠加。传统无线电拼命消除这种叠加,把它当噪音处理。OAC反其道而行:精心设计发射波形,让干扰本身完成加法或平均运算。
团队的原型机已经做到一件事——模拟信号在数字电台上跑计算。波形叠出来的数字,还没经过复杂的数字信号处理,就已经是算好的结果。
从"消除噪音"到"雇佣噪音"
技术细节藏在信号设计里。每个设备发射的不再是原始数据,而是经过编码的波形。这些波形在空气中相遇时,叠加后的振幅直接对应数学运算的结果。
举个例子:三辆自动驾驶车要汇报各自测得的路面摩擦系数。传统方式,三辆车轮流发,基站收齐再算平均。OAC方式,三辆车同时发,信号在空中撞成一股,基站收到的就是平均值——通信和计算一步完成,带宽省了两轮传输。
麻省理工团队的数据显示,这种架构在密集传感器网络中,能把5G容量拉上去47%。延迟更狠,直接从毫秒级砍到亚毫秒级。对于自动驾驶这种生死以毫秒计的领域,这差距意味着刹车距离少几米。
但47%这个数字有个前提:网络足够密集,干扰足够多。稀疏场景下,OAC的优势反而发挥不出来。这就像雇佣噪音当员工——车间里没人说话,你要这员工干嘛?
数字世界的兼容难题
早期的OAC原型依赖模拟信号,和现有的数字通信协议格格不入。5G、Wi-Fi、蓝牙,全是数字的。想让OAC落地,必须解决一个工程悖论:用数字设备做模拟计算,同时不被数字纠错机制误杀。
麻省理工团队的方向是「数字OAC」——把同样的物理原理嵌入数字格式。不是让数字信号退化成模拟,而是在数字帧的结构里预留计算空间。这样,OAC可以和现有协议共存,不需要推翻重来。
Médard的团队正在推进这一步。他们的原型已经能在软件定义无线电(SDR)上跑通,下一步是塞进商用基站芯片。时间表没有公开,但方向很明确:不做革命,做嫁接。
这个选择很产品经理。推翻5G标准?运营商和设备商没人跟。在现有框架里开一扇后门,让OAC作为可选模式运行,才是能落地的路径。
谁在等这项技术
自动驾驶公司是最早敲门的。Waymo、特斯拉、Mobileye的测试车队都面临同一个瓶颈:车与车直接通信(V2V)的带宽,跟不上传感器数据的增长。激光雷达每秒喷出几十万点云,摄像头又是视频流,传统V2V协议很快饱和。
工业物联网是另一个场景。西门子、博世在工厂里部署的无线传感器网络,节点数量动辄上千。现在靠有线或低功耗广域网(LPWAN)硬撑,延迟和布线成本都是痛点。OAC的「越忙越能算」特性,恰好匹配这种高密度、高并发的需求。
甚至智能家居都可能受益。想象一个场景:全屋三十个设备同时响应语音指令,传统Wi-Fi会短暂卡顿。OAC可以让这些响应在信号层面先做一次聚合,再上报给中枢,拥堵瞬间缓解。
但所有这些场景,都依赖同一个前提:设备密度足够高,干扰足够频繁。稀疏网络里,OAC的增益会衰减,甚至不如传统方案稳定。这不是万能药,是为拥挤场景量身定制的加速器。
从论文到产品的距离
2005年的理论设想,2024年的原型验证——这个周期在通信领域不算长。CDMA从理论到商用走了十几年,MIMO(多输入多输出)也差不多。OAC的特殊之处在于,它不需要新频谱,不需要新硬件形态,只需要重新定义信号的处理逻辑。
风险在于标准博弈。3GPP(制定5G标准的国际组织)的议程里,OAC还不是优先议题。如果主流标准迟迟不纳入,OAC可能沦为小众方案,只在封闭场景(如单一车企的车队网络)里存活。
Médard对此的回应很克制:「我们先证明它能工作,再证明它值得被标准化。」这是学术团队常见的策略——用原型和数据说话,等产业界自己找上门。
已经有信号了。高通2023年的研究论文里出现过OAC的变体方案,虽然路径不同,但物理原理一致。产业界的嗅觉比标准组织快,这是技术落地的常态。
一个反直觉的未来
无线通信的历史,是一部与干扰斗争的历史。从调频到扩频,从CDMA到OFDM,每一代技术都在想办法让信号在拥挤频谱里互不打扰。OAC的方向完全相反:拥抱干扰,利用干扰,让电磁波的自然叠加成为计算资源。
这种思维转变,和云计算当年的「把故障当常态」异曲同工。AWS早期设计S3时,假设硬盘随时会坏,反而做出了更可靠的存储。OAC假设干扰不可避免,干脆让它干活。
47%的容量提升,在5G-A和6G的路线图里,不是最激进的数字。大规模MIMO、智能超表面(RIS)、太赫兹通信,都在争夺下一代网络的C位。OAC的优势在于轻量——不需要部署新基站,不需要申请新频段,软件升级就能部分生效。
对于运营商来说,这是最低成本的试验选项。对于设备商来说,这是差异化竞争的筹码。对于用户来说,可能意味着自动驾驶在暴雨天更稳一点,工厂监控延迟更低一点——这些改善藏在体验里,不会被感知,但会被依赖。
Médard团队在最新论文里留了一个开放问题:当OAC和联邦学习结合,传感器网络能不能在保护隐私的前提下,直接算出全局模型?这意味着你的手机、手表、耳机,可以在信号层面完成协同训练,而不需要把原始数据上传到云端。
如果这条路走通,OAC就不只是通信技术的补丁,而是分布式AI的基础设施。那时候,干扰不再是噪音,而是集体智慧的载体——每一丝电磁波都在说话,而它们叠加的方式,就是答案本身。
47%之后,下一个数字会是什么?
热门跟贴