1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. 39. 40. 41. 42. 43. 44. 45.
当全球数据中心的能耗以每年超两位数的速度攀升,当人工智能训练任务、6G通信系统对算力的需求不断突破现有技术边界,传统依赖二进制逻辑的数字计算体系已显疲态。
过去五十余年间,数字计算凭借其高度精确的运算能力主导了整个算力产业,然而随着摩尔定律逐渐触及物理极限,提升性能所付出的功耗代价愈发沉重,速度与能效之间的矛盾日益尖锐。
是否存在一种新型计算范式,既能维持顶尖级别的精度水平,又可实现能效的跨越式飞跃?北京大学科研团队在《自然·电子学》期刊发表的研究成果,为这一难题提供了明确答案。
在计算发展史上,始终存在两条并行演进的技术路径:数字计算通过将信息编码为0和1的离散信号进行处理,如同操控海量开关的组合状态来完成复杂逻辑,虽具备良好的可控性,但流程冗长且资源消耗巨大。
相比之下,模拟计算采取截然不同的策略,直接利用电压、电流等连续物理量表征数值,借助电路本身的物理规律自然执行加减乘除操作,运算过程更加简洁高效。
早在20世纪中叶,模拟计算曾广泛应用于科学仿真与工程控制系统,但由于难以克服精度偏低的问题,在面对日益复杂的计算需求时逐步被数字方案取代,沦为边缘化的技术分支。
长期以来,精度不足如同一道无形屏障,阻碍模拟计算重返主流舞台。直到北大研究组取得关键突破,这项沉寂多年的计算模式才迎来真正的转机。
实现24位定点运算精度,标志着模拟计算首次达到与现代数字处理器相抗衡的准确水平。这一里程碑式的进展,意味着被遗忘半个多世纪的技术路线正迎来全面复兴。
在高精度应用场景中,结果的可靠性高度依赖于计算过程的准确性。24位精度结合迭代优化后达成的10⁻⁷级相对误差,使模拟计算不仅能够参与核心算法运行,甚至可在特定关键任务中替代传统数字架构。
这项成就的背后,是对经典计算思维的根本性重构:当数字计算在二进制框架内遭遇能效瓶颈,模拟计算依托物理本征特性的优势,正在成为推动算力跃迁的核心驱动力。
北大的创新并非孤立的技术闪光点,而是涵盖器件、电路与算法三个维度的系统级协同突破。这种三位一体的设计理念,彻底破解了模拟计算长期受限于精度缺陷的困局,构建出全新的计算范式。
器件层面的革新构成基础支撑,研究团队采用可编程阻变存储器作为基本单元,其电阻值可通过外加电压动态调节,单个元件即可同时承担数据存储与数学运算功能,真正实现存算一体化设计。
该结构打破了冯·诺伊曼架构中“计算—存储”分离的传统模式,避免了频繁的数据搬运所带来的巨大能量损耗,从硬件底层奠定了超高能效的基础。
相较于传统固定阻值元件,这种可调特性显著增强了模拟系统的适应能力,使其不再局限于单一用途;与此同时,电路架构的持续精进提供了关键保障。
早在2019年,团队就率先提出基于阻变存储器阵列的矩阵方程求解电路原型,但当时精度仅维持在约1%,远未达到实用标准。
历经多年攻关,研究人员将原创性电路设计与多项增强技术深度融合,通过对拓扑结构优化、噪声抑制机制改进,实现了精度数量级的跃升,展现了从理论探索到工程落地的强大转化能力。
算法层面的突破则成为画龙点睛之笔,团队引入位切片(bit-slicing)策略,将24位高精度任务分解为8组3位子模块,通过多个阵列并行处理后再整合输出,既降低了单模块实现难度,又确保整体精度不打折扣。
配合使用的迭代优化方法,则先由低精度通路快速生成初始近似解,再借助高精度乘法器识别误差方向,经数轮修正后迅速收敛至理想结果。
这一机制犹如在崎岖地形中智能导航,无需穷举所有路径即可高效抵达最优解,相比数字领域常用的梯度下降法展现出更高的收敛效率。
实验结果显示,在执行16×16规模矩阵求逆任务时,芯片可在10次迭代内将相对误差压缩至10⁻⁷量级,完全满足科学仿真与工业级应用的严苛标准。
当矩阵扩展至128×128维度,其计算吞吐能力较顶级数字处理器提升逾千倍;即便是32×32矩阵求逆,性能也已超越高端GPU单核表现。
这意味着原本需耗费一整天才能完成的复杂运算,如今仅用一分钟便可精准完成,算力跃迁堪称颠覆性变革。
能效方面的进步同样令人震撼,在保持同等精度条件下,这款模拟计算芯片的能量效率超过传统数字处理器百倍以上。
在全球数据中心年耗电量已堪比中等国家总用电量的背景下,如此量级的节能潜力不仅能大幅削减运营开支,更为实现“双碳”目标提供强有力的底层技术支持。
对于AI、自动驾驶、超大规模通信等算力密集型行业而言,低功耗意味着更低的散热负担和更稳定的设备运行周期,有望加速数据中心向绿色化、紧凑化方向转型。
尤为关键的是,该技术已在真实场景中完成验证测试。
研究团队将其应用于大规模MIMO无线信号检测任务,仅需三次迭代即恢复出与原始信号高度吻合的结果,误码率水平与32位浮点数字计算相当。
这对6G通信的发展具有深远意义——随着天线数量激增,MIMO信号处理复杂度呈指数上升,传统数字架构难以满足实时响应要求,而模拟计算的天然并行性恰好契合此类高并发任务。
相较国内外多数研究聚焦于较为基础的矩阵乘法加速,北大团队选择了一条更具挑战性的技术路线——直面更高阶的矩阵方程求解问题。
矩阵求逆作为人工智能训练、控制优化、信号重建等领域的核心运算环节,不仅对精度要求极高,其时间复杂度更是达到O(n³),而模拟计算依靠物理法则直接映射运算过程,在这类任务中展现出无可比拟的优势。
北大的这项突破并非孤立事件,而是中国半导体自主创新能力整体跃升的重要体现。在这条自主可控的发展道路上,一系列关键技术接连取得实质性进展,形成了从基础科研到产业转化的完整链条。
复旦大学研发的“长缨”架构,成功将二维超快闪存器件与标准硅基CMOS工艺深度融合,解决了新型二维材料器件工程化应用的关键瓶颈。
沐曦集成电路推出的全国产通用GPU“曦云C600”,填补了国产高性能图形处理器的空白,实现了历史性跨越。
产业生态的成长离不开资本投入与硬件支撑,深圳半导体与集成电路产业基金正式设立,首期注入50亿元资金,重点扶持通用与专用算力芯片、新型存储架构等战略方向。
新凯来提供的先进半导体制造设备,以及万里眼科技发布的90GHz高频示波器,为3-5nm先进制程芯片的测试验证提供了关键工具支持,其中90GHz示波器使国产测试仪器性能跃升500%。
宏泰半导体在晶圆级测试设备领域实现国产替代零的突破,芯德半导体荣获美国BroadPak杰出技术奖,标志着我国在2.5D先进封装技术方面已跻身全球领先行列。
这些成果彼此联动、协同发展,共同构筑起中国芯片产业的核心竞争力。未来的计算格局,必然是多种技术范式共存互补的新时代。
CPU将继续扮演通用任务调度中枢的角色,GPU专注于大规模矩阵乘法加速,而模拟计算芯片则专攻AI二阶优化、机器人运动轨迹规划、6G基站信号处理等高能耗核心场景,形成异构协同的算力新格局。
这种专业化分工模式,能够让每种计算架构在其最擅长的领域发挥极致效能,为智能制造、智慧城市、医疗健康等行业提供更高效、更具成本效益的算力服务。
对终端用户而言,模拟计算的普及将带来切实体验升级:智能手机、可穿戴设备等终端可在本地运行更复杂的AI模型,无需上传云端,响应更快、隐私更安全。
边缘侧设备因具备超低功耗特性,将进一步推动物联网技术向农业、交通、能源等广阔场景渗透,激发新一轮智能化变革。
北大团队的这项突破,不仅让模拟计算重回主流视野,更打破了数字计算长期垄断算力市场的局面。
在这场深刻的算力革命中,中国科研力量凭借底层原创占据先机,而日益完善的产业链生态则为技术规模化落地提供了坚实支撑。
随着模拟计算技术的不断演进与应用场景的持续拓展,一个更高效、更绿色、更多元的算力新时代正加速到来。
它不仅将重塑全球芯片产业的竞争版图,还将为人工智能、下一代通信、量子信息等前沿科技注入强劲动能,引领人类社会迈向更高层次的智能文明阶段。
热门跟贴