打开网易新闻 查看精彩图片

人工智能生成的透明人工智能与“黑箱”人工智能对比图。图片来源:拉夫堡大学

来源:https://techxplore.com/news/2026-04-black-ai-scientists-blueprint-transparent.html

研究表明,无法解释其决策过程的人工智能(通常被称为“黑箱”人工智能)可能很快就会被更透明的系统所取代。拉夫堡大学发表在《Physica D: Nonlinear Phenomena》上的一项研究概述了一种构建人工智能的全新数学蓝图,该蓝图能够揭示人工智能如何学习、记忆和做出决策。

一个具有透明思维的原型

该团队开发了一种兼具“大脑”和记忆功能的原型系统。与传统人工智能不同,它可以持续学习而不丢失过去的知识,避免形成虚假或误导性的记忆,并以清晰、可控的方式模仿人类思维的某些方面——例如随着时间的推移强化或遗忘信息。

“长期以来,人们一直将智能视为一种在黑箱中涌现的东西,”论文第一作者、拉夫堡大学数学科学系的娜塔莉亚·詹森博士说。“我们希望从根本上重新思考人工智能——我们构建了一个认知内部运作完全透明的系统。”

在早期测试中,该原型机展现出了令人鼓舞的结果。在简单的演示中,它无需监督即可学习音符和短乐句,并能从卡通图像等视觉数据中识别和存储颜色。在所有任务中,它的行为都具有可预测性和可追踪性,同时避免了人工智能中常见的“灾难性遗忘”和虚假记忆的形成等问题。

透明学习背后的理论

研究人员表示,透明人工智能面临的主要障碍之一是对自然智能中记忆、行为和物理结构如何相互作用的理解有限。这种理解上的差距使得设计既能执行复杂任务又能解释其执行方式的系统变得困难。

这种新方法的核心是一个名为“可塑性矢量场”的数学概念,它模拟信息随时间的变化,并以此反映大脑处理和存储信息的方式。这使得人工智能学习和认知过程的每个阶段都能被追踪,并且从一开始就具备了透明度,而非后期添加。

“要构建能够透明且按预期运行的智能系统,我们需要解决一些根本性问题,”詹森博士说。“我们如何识别人类的智能?通过行为。是什么驱动了这种行为?大脑活动。但大脑活动本身的基础是什么?大脑的‘代码’是什么?记忆和生理结构之间又是如何联系的?这些正是我们试图解答的问题。”

当今神经网络的局限性

研究团队还考察了现有的神经网络,发现它们的许多局限性可能源于它们的设计方式。

“令人兴奋——也有些出乎意料——的是,我们现在可以清楚地看到为什么当前的神经网络难以解释,”该研究的作者之一、拉夫堡大学物理系教授亚历山大·巴拉诺夫说道。“这不仅仅是技术上的难题。它们的设计使得我们无法完全控制它们学习和存储信息的方式。这就是为什么像我们这样的新方法如此重要。”

迈向实际影响的下一步

该原型系统目前仍相对简单,需要进行扩展才能应用于实际场景。拉夫堡大学团队计划进一步开发该系统,并探索其更广泛的应用前景——包括应用于新型硬件——旨在打造功能强大且更易于理解和信任的人工智能。

巴拉诺夫教授说:“最终,这项研究使我们更接近于人们在日常生活中可以信赖的技术——从更安全的医疗保健工具到更负责任的自动化决策。”

阅读最新前沿科技趋势报告,请访问21世纪关键技术研究院的“未来知识库”

打开网易新闻 查看精彩图片

未来知识库是 “21世纪关键技术研究院”建 立的在线知识库平台,收藏的资料范围包括人工智能、脑科学、互联网、超级智能,数智大脑、能源、军事、经济、人类风险等等领域的前沿进展与未来趋势。目前拥有超过8000篇重要资料。每周更新不少于100篇世界范围最新研究资料。 欢迎扫描二维码或访问https://wx.zsxq.com/group/454854145828进入。

截止到2月28日 ”未来知识库”精选的百部前沿科技趋势报告

(加入未来知识库,全部资料免费阅读和下载)