近日,中国科学院自动化研究所李国齐、徐波团队在《National Science Review》上发表了题为《Neuromorphic Spike-based Large Language Model》的论文。该团队提出了一种神经形态脉冲大语言模型(NSLLM),通过借鉴神经科学原理,提升了大型语言模型(LLMs)的能效和可解释性。此项研究不仅为高效AI的发展开辟了新方向,还为下一代神经形态芯片的设计提供了宝贵的见解。

本研究由多个国内外科研机构合作完成,包括中国科学院自动化研究所、天桥脑科学研究院尖峰智能实验室、北京智源人工智能研究院、北京中关村学院、加利福尼亚大学、清华大学、北京大学、陆兮科技、悉尼大学、香港理工大学、超威半导体公司、中国科学院大学、宁波大学等。

打开网易新闻 查看精彩图片

论文题目: Neuromorphic spike-based large language model 论文链接: https://academic.oup.com/nsr/advance-article/doi/10.1093/nsr/nwaf551/8365570一、NSLLM联系大模型与神经科学

LLMs已成为实现人工通用智能(AGI)的关键工具。然而,随着用户群体的规模扩大及使用频率增加,这些模型的部署带来了显著的计算和内存成本,限制其作为人类社会基础设施的潜力。此外,现有LLMs普遍缺乏可解释性,决策和优化过程的不透明使得其在医疗和金融等高风险领域的应用难以保证可靠性和公平性。

相比之下,人脑在执行复杂任务时的功耗不足20瓦,且展现出惊人的透明度。这一对比凸显了LLMs与人类认知之间的差距,带来了双重挑战:一方面,亟需提升LLMs的计算效率,以提升能效并节约资源;另一方面,需提升模型的可解释性,从而加深对大规模系统中各组件相互作用和功能的理解。

为突破上述跨学科交叉瓶颈,该研究提出了一种学科统一的框架,通过执行整数脉冲计数-二值脉冲转换和脉冲线性注意力机制,将传统LLMs转化为NSLLMs,从而链接神经科学与大语言模型,为将神经科学工具应用于LLMs提供了平台。通过引入整数训练二值推理,标准LLM的输出被转化为脉冲格式,这使得神经科学工具能够分析信息处理过程。

打开网易新闻 查看精彩图片

NSLLM:从大语言模型到神经形态架构的高效处理框架 二、超低功耗软硬协同定制MatMul-Free LLM

为验证能效,该研究在FPGA平台上定制了十亿参数量级的无矩阵乘法(MatMul-Free)计算架构。具体地,该研究通过逐层量化策略和层级灵敏度度量,评估层级对模型量化损失的影响,从而配置最优混合时间步脉冲模型,在低比特模型中实现了竞争力的性能;通过引入量化辅助稀疏策略,调整膜电位分布,将量化映射概率向较低整数值移动,从而显著降低脉冲发放率,进一步提升模型效率。

在VCK190 FPGA上,该研究设计了MatMul-Free硬件核心,实现了在NSLLM中矩阵乘法操作的完全消除,将动态功耗降至13.849W,吞吐量提升至161.8 token/s。与A800 GPU相比,该方法的能效、内存和推理吞吐量分别提高了19.8×、21.3×和2.2×

打开网易新闻 查看精彩图片

NSLLM在FPGA平台上的硬件核心设计 三、脉冲神经群体增强可解释性

通过NSLLM框架将LLMs的行为转化为神经动力学模型(例如,脉冲列),可以分析其神经元的动态(如通过Kolmogorov-Sinai熵度量的随机性)以及信息处理的过程(如Shannon熵和互信息)。这有助于解释NSLLM的计算角色。

实验结果表明,在处理无歧义文本时,模型能够更有效地进行信息编码,从而区分含歧义文本与无歧义文本。(例如,中间层在处理含歧义文本时呈现更高的归一化互信息;AS 层表现出独特的动态特征,显示其在稀疏信息处理中的作用;FS 层的 Shannon 熵更高,表明其具备更强的信息传递能力。此外,互信息与 Shannon 熵的正相关也说明,高信息容量的层更擅长保留输入的关键信息)。

因此,通过将神经动力学与信息度量相结合,该框架为LLM机制提供了生物学上可解释的见解,同时有效减少了数据需求。

打开网易新闻 查看精彩图片

NSLLM的神经动力学分析

神经科学的研究表明,人脑通过稀疏和事件驱动计算优化能耗,促进信息传递,并增强系统的可解释性。基于这一思路,该团队构建了一个跨学科的统一框架,提出了能够替代传统 LLMs 的神经形态方案,并在常识推理以及更复杂的大模型任务中(如阅读理解、世界知识问答、数学等)保持了与主流同规模模型相当的性能表现。所提出的框架不仅推动了高效AI的前沿发展,为大语言模型的可解释性提供了新视角,并为未来神经芯片的设计提供了宝贵的见解。

作者:李国齐、徐波 来源:公众号【中国科学杂志社】

llustration From IconScout By IconScout Store

-The End-

本周上新!

扫码观看!

“AI技术流”原创投稿计划


TechBeat是由将门创投建立的AI学习社区(www.techbeat.net)。社区上线700+期talk视频,3000+篇技术干货文章,方向覆盖CV/NLP/ML/Robotis等;每月定期举办顶会及其他线上交流活动,不定期举办技术人线下聚会交流活动。我们正在努力成为AI人才喜爱的高质量、知识型交流平台,希望为AI人才打造更专业的服务和体验,加速并陪伴其成长。


投稿内容

// 最新技术解读/系统性知识分享 //

// 前沿资讯解说/心得经历讲述 //

投稿须知

稿件需要为原创文章,并标明作者信息。

我们会选择部分在深度技术解析及科研心得方向,对用户启发更大的文章,做原创性内容奖励

投稿方式

发送邮件到

michellechang@thejiangmen.com

或添加工作人员微信(michelle333_投稿,沟通投稿详情

关于我“门”

将门是一家以专注于数智核心科技领域新型创投机构,也是北京市标杆型孵化器。 公司致力于通过连接技术与商业,发掘和培育具有全球影响力的科技创新企业,推动企业创新发展与产业升级。

将门成立于2015年底,创始团队由微软创投在中国的创始团队原班人马构建而成,曾为微软优选和深度孵化了126家创新的技术型创业公司。

如果您是技术领域的初创企业,不仅想获得投资,还希望获得一系列持续性、有价值的投后服务,欢迎发送或者推荐项目给我“门”:

bp@thejiangmen.com

打开网易新闻 查看精彩图片

点击右上角,把文章分享到朋友圈