约翰霍普金斯大学新研究表明,受生物学启发设计的人工智能系统,在未接受任何数据训练前,内部活动模式就已类似人类大脑。这一发现挑战了当前AI发展的主流策略,提示AI的架构设计可能与数据处理量同等重要。

打开网易新闻 查看精彩图片

研究发表于《自然·机器智能》,指出如今AI领域依赖海量数据、数月训练和超大规模计算资源(成本达数千亿美元),但人类仅需少量数据就能学会视觉认知。“进化可能已找到最优设计,类脑架构让AI从起点就占据优势。”(首席作者Mick Bonner,约翰霍普金斯认知科学助理教授)

三种AI架构的对比实验

团队针对三种主流神经网络(Transformer、全连接网络、卷积神经网络)进行调整,生成数十种未训练模型,测试它们对图像的响应,并与人类及非人灵长类动物的脑活动对比。

结果显示:增加Transformer和全连接网络的神经元数量,对活动模式影响极小;但调整卷积神经网络的结构后,其活动模式与人类大脑高度匹配,性能媲美需训练数百万甚至数十亿张图像的传统AI。这证明架构对类脑行为的影响远超此前认知。

更高效的AI发展路径

Bonner表示:“若海量数据是关键,仅靠架构修改不可能实现类脑AI。但我们的研究说明,从正确的类脑蓝图出发,结合生物学洞见,可大幅加速AI学习效率。”

团队正探索受生物学启发的简单学习方法,目标是开发新一代深度学习框架,让AI更快速、高效,减少对海量数据的依赖。