来源:新智元

有趣的是,LSTM之父Jürgen Schmidhuber,自称被图灵奖遗忘的人,又现身「打假」了。

刚刚,他发长文表示,2024诺贝尔物理学奖授予Hopfield和Hinton的决定,实际上奖励了计算机科学剽窃,以及错误归属。

因为它忽视了AI先驱Shun-Ichi Amari的重要贡献。

打开网易新闻 查看精彩图片

Schmidhuber接下来给出了具体例证。

打开网易新闻 查看精彩图片

Shun-Ichi Amari(甘利俊一)是信息几何学之父,神经网络研究的先驱和泰斗

具有类神经元元素的Lenz-Ising循环架构,早在1925年被发表。

1972年,Shun-Ichi Amari发表的联想记忆模型论文,使其具有适应性,能够改变连接权重来学习将输入模式与输出模式相关联。

打开网易新闻 查看精彩图片

论文地址:https://ieeexplore.ieee.org/document/1672070

然而,在「2024年诺贝尔物理学奖科学背景」中只是简单提到了Amari。

不幸的是,Amari的网络后来被称为「Hopfield网络」。Hopfield在10年后重新发表了它,没有引用Amari,甚至在后来的论文中也没有。

打开网易新闻 查看精彩图片

论文地址:https://www.pnas.org/doi/10.1073/pnas.79.8.2554

其次,Ackley、Hinton和Sejnowski在1985年发表了玻尔兹曼机论文,是关于学习神经网络(NNs)隐藏单元中的内部表示。

然而,这篇论文也并没有引用Ivakhnenko和Lapa(1965年)首次提出的用于深度学习内部表示的工作算法。

也没有引用Amari(1967-68年)提出的通过随机梯度下降(SGD)端到端学习深度神经网络内部表示的研究。

甚至,作者们的综述和「2024年诺贝尔物理学奖科学背景」都没有提到这些深度学习的起源。

(他们也没有引用Sherrington和Kirkpatrick以及Glauber的相关先前工作。)

打开网易新闻 查看精彩图片

论文地址:https://www.cs.toronto.edu/~fritz/absps/cogscibm.pdf

第三点是,诺贝尔委员会还赞扬了Hinton等人,在2006年提出的深度神经网络逐层预训练方法。

然而,这项工作既没有引用Ivakhnenko和Lapa最初提出的深度神经网络逐层训练,也没有引用关于深度神经网络无监督预训练的原始工作(1991年)。

打开网易新闻 查看精彩图片

论文地址:https://www.cs.toronto.edu/~hinton/absps/fastnc.pdf

第四,诺贝尔官方的文章称,「20世纪60年代末,一些令人沮丧的理论结果导致许多研究人员怀疑这些神经网络永远不会有任何实际用途」。

打开网易新闻 查看精彩图片

文章地址:https://www.nobelprize.org/prizes/physics/2024/popular-information/

然而,深度学习研究在20世纪60-70年代显然蓬勃发展,尤其是在英语圈之外。

最后,更多剽窃和错误归属的案例可以在下面这篇文章中找到:

打开网易新闻 查看精彩图片

文章地址:https://people.idsia.ch/~juergen/ai-priority-disputes.html

打开网易新闻 查看精彩图片