来源:市场资讯

(来源:图灵人工智能)

您想知道的人工智能干货,第一时间送达

打开网易新闻 查看精彩图片

温馨提示:文章字数较多,耐心读完,将会收获很大

打开网易新闻 查看精彩图片

一、从物理到心理:寻找智能的本质

个人经历:在 AI 与脑科学之间的 20 年

我叫刘嘉,高中时做数理化竞赛,对数理特别感兴趣,准备选择物理作为一辈子的工作方向。但高三时读了弗洛伊德的传记文学《心灵的激情》,我就觉得心理世界比物理世界好玩多了,所以大学选择了学心理学。

去了之后才发现太文科了,所有东西不讲逻辑,太哲学思辨,当时就很失望。后来我就学了计算机,当时叫无线电,现在叫信息系统或自动化。学了这两个之后,当时就很困惑——继续学心理学,还是干脆转行做计算机?

很凑巧碰到了人工神经网络。1994 年左右,有一个老师刚从日本做完博士后回国,在北大开了一门人工神经网络的课程,那应该是我们国内可能第一门人工神经网络的课程。我当时莫名其妙就正好碰上这门课,觉得人工神经网络非常好,很适合我的胃口——既是关于心理世界的,又和我的理科背景比较结合。

MIT 的转折:AI 寒冬中的抉择

我当时就想一定要到 MIT 去做 Marvin Minsky 的学生,他是 AI 的大神。但我不知道他对人工神经网络这么深仇大恨,当时只知道他是 AI 的教主。后来我就到 MIT 去读研究生,没想到当时正好是 AI 的低谷。

Marvin Minsky 本身也对此没有特别大的信心,下一步怎么做他也不知道。对人工神经网络他是一如既往的鄙视,但对于他自己做的符号主义这一块,他自己也很困惑。所以当时他就劝我说,你还是应该去学习脑科学,这块当时正是最火的时候。

所以我后来就留在脑与认知科学系继续做脑科学,我就把 AI 这件事情彻底给忘记了,直到 2015、2016 年。

信仰的回归:《最强大脑》与 AlphaGo 的震撼

2015 年我在北师大当心理学院院长,参与了江苏卫视《最强大脑》制作。当时我们想做一个人机大战,我对 AI 的进展、对人工神经网络、对深度学习了解基本上为零,当时以为 AI 还是一如既往的弱智。

结果没想到节目大赛里面我们做了人脸识别,人工智能在 2016 年的时候已经超越了人类最顶尖的高手,对我触动特别特别大。2016 年正好是 AlphaGo 战胜了李世石,当时也非常出圈。这两件事情结合起来,让我重新回到了 20 年前——信仰回来了,丢失了 20 年的信仰回来了。

其实当时并没有一种底层的信仰,只是觉得这东西很酷,然后自己去学。但一旦大家说这个东西不行,特别是像 Marvin 这种大师说 AI 不行,自己就没细想,然后就放弃掉了。

二、找到底层逻辑:Hinton 的信仰

为什么突然就行了?

2016 年给我的震撼就是:为什么突然一下就行了?我们觉得面孔识别是一个 ill-posed problem,它没有规则,怎么能行呢?为什么 AI 行呢?对我来说触动很大。

我就开始重新看 AI 的书,看了半天其实说实在也没看明白啥。后来我就想应该从 Hinton 的传记史里面入手,但没有一本关于 Hinton 的传记。那我就自己去对 Hinton 的历史做了一个调研,把他的背景看了下。我也去看了 Bengio 和 Yann LeCun,但他们相对 Hinton 来说属于后来之秀,并没有像 Hinton 经历过一系列的周期。

当时我就把 Hinton 的历史研究了一番,把他的历史研究清楚了之后,我觉得我找到了我的底层逻辑。

Hinton 的那句话

Hinton 有一句话,我觉得那句话对我来说是非常非常触动的。别人问他为什么他要坚持做人工神经网络,做这种类似于仿生的这条道路,他说:人的大脑就是这么工作的,没理由人工神经网络不这么工作。

我觉得这句话道出了底层的一个信仰。人工神经网络不是说我是把神经元连起来做一个仿生,而是因为我们人类之所以能够涌现出智能出来,就是因为我们大脑里面有了这种架构——神经元连接起来的这种架构。

他是把这种架构作为 AI 的一个最底层的逻辑。所以在这种架构的底层逻辑,你如果再去深挖,就只有一个东西——就是我们大脑的这种学习能力。你可以把它变成可塑性、可扩展性,但它的本质就是:只要你大脑长成这种样子,你有了神经网络,它这种底层架构就能支撑你的学习。而有了学习,你就有智能。

学习能力与涌现能力

从物理这个层面上来讲,只要有了神经元——这神经元其实就是物理学里面一个小的粒子,这个粒子干不了任何事情,非常简单。但是众多的粒子混在一起,它就有可能涌现。

Hinton 把这句话放出来的时候,其实就谈到了关于人工智能最核心的两点:

  • 第一个学习能力——代表了他可以无限的去拥有新的知识

  • 第二个涌现能力——表明他是没有天花板的

我们人是有天花板的,但是人工智能是没有天花板的。他把这两点讲透了之后,我就立刻就清楚了——当年就应该选人工神经网络来做。至于说你是用 Hopfield 还是用什么东西,那些东西都不重要,那都是一些小的东西。只要你底层架构在这放着了,其他所有问题都是一些技术问题,都是可解决的技术问题。

辞职转向:从行政到研究

找到底层逻辑之后,我第一件事情就是把部长赶紧给辞掉。当时其实如果假设从行政的这个路上来讲的话,其实是一片坦途,因为当时不到 45 岁级别做的比较高,大家还比较认可。但当时就想不能在那上面浪费时间。

所以我就把我的所有的行政职务辞掉,辞掉了之后当一个普通的教授。学校不允许辞职,就是花了一年的时间,每两天给我们大书记发一次短信,说你赶紧批准吧。后来批准了,所以后来我就重新回来做 AI 这一块。

在北师大做,后来发现北师大各方面挺好,但是北师大的 AI 不行,而我自己 AI 也比较弱,基本上是零。所以当时就想要到一个 AI 比较强的地方去做。清华正好也联系我很多次,他们脑科学比较弱,希望我去增强他们脑科学那一块。清华正好他的人工智能比较强,所以 2020 年我就来到清华。

三、智能的本质:学习与涌现

什么是学习?

智能在我来说就两个要素。第一个要素就是学习。以前做符号主义这块,他做的相当于填鸭——我把知识总结出来,然后让 AI 给记住,这不是学习,这就是一种知识库的做法。而人工神经网络干的什么事情呢?就是学习。你只要有新的知识来,我具有这种学习能力,那就够了。

我的理解有两点:

第一点,他一定是具有举一反三的这种能力。就我学习一,我能够推广出去。那么这种推广的意思,它就涉及到一点创造力——我能打破原来的边界。我学了加法,我可能能做乘法,能做除法了。这是我们所说的学习,学习要和推广、举一反三、和创造力、从 0 到 1 这种创造力把它联系起来。

否则我们就变成了记忆。假设你让我学 1+1=2,我可以学会 1+1=2,我也可以把它记下来。但是你记忆 1+1=2,你永远不会做 2×3=6 这件事情,你永远不会做乘法,因为你跳不出加法这个框架。

再举个抽象的例子,比如像塞尚他们去学传统绘画,毕加索学传统绘画,但是他们能跳出这种传统绘画出来,能搞出印象派,能搞出立体主义,0 到 1 的创造东西出来。所以我认为这是学习的本质——我能够从已知走向未知,它学习到里面的底层逻辑,而不是简单的 1+1=2 这种知识。

归纳推理与演绎推理

这背后就涉及到两种推理方式:

第一个,归纳推理。你根据所谓的小样本学习,我给了你些样例,我给你看两张猫的图片,你就根据这样例总结出它下面的一套规则。然后找到它的一个底层逻辑,这一块就是我们刚才所说的我能够举一反三了,这已经是一种学习能力了。以后再给我一张从来没见过的猫,我也知道那叫猫,而不叫狗。

第二个能力,演绎推理。演绎推理就是我找到一个逻辑原点,基于这个逻辑原点然后我往前面走。这就是亚里士多德提出的叫第一性原理。马斯克现在把第一性原理炒的很火,其实第一性原理这个词最早是由亚里士多德提出的,其实就是我们所说的演绎推理——他找到一个逻辑原点,从这逻辑原点往前面走就是了。

爱因斯坦我觉得特别牛的一个地方,他就是始终在找他的逻辑原点。他找到他的逻辑原点,他就可以往前面走。比如说狭义相对论,就说你的光速是我们运动的上限,从这角度往前面推,我能看见什么。他所以说做了很多假想的这种实验。

这种演绎推理,可以看到他就是跟那个天外飞仙一样,你不知道他逻辑原点从哪来的——我就相信他,相信他然后我就从那边走,我就能得到一个结论。绝大多数情况都是一些很疯狂的结论,但有时候他就能够把握住事实的本质,这就是靠人的这种顿悟,这种学习能力。

AI 有演绎能力吗?

从我的观察,从目前来说,我现在还没有看到 AI 具有演绎的能力。至少我们能看见的各种东西,都还在我们人类能够理解的框架之内。爱因斯坦比如说搞出一个广义相对论出来,那就是超越了所有的物理学家的理解的框架之内,他已经是一条新的框架。

AI 我们现在目前来说还没有看到,无论他是解多么复杂的数学问题,无论他写多么复杂的程序,我觉得 AI 现在更多的还是一个归纳推理,或者归纳推理它也不是特别完美,靠的 chain of thoughts 一点点往前面去推。

演绎推理它的核心就是说,一种是我从一个已知逻辑点往前面推。我们解数学题,解这些东西都有,还有比如说我要不要买学区房等等类似,这都是从已有的逻辑原点来。

我说的真正创造力的这种,他是要去找一个全新的逻辑原点,他自己找。这个东西不存在于已知的这种知识框架之内。

逻辑原点的重要性

比如说我们刚才谈到的 Hinton,他的做 AI 的逻辑原点就是:大脑能工作,没有理由我人工神经网络不工作。这是他所有东西的一个逻辑原点,这个逻辑原点是他找到的。

我们现在来理解,你比如说现在让我来推,我没问题。我为什么要做脑科学+AI 的结合?因为我就是从这个逻辑原点出发。但这个逻辑原点不是我找到的,是 Hinton 找到的。所以这就是为什么 Hinton 能够成为人工智能之父,我就是一个小跟班,这就是区别。

所以关键不是在于演绎的动作,而是在于找原点的那个动作。

缺少引路人的一代

我为什么走了 20 年的这么一个弯路?如果假设我当年 94 年、95 年我学到了人工神经网络,我觉得也很不错,但是我就没问自己问题:为什么?它能工作吗?它只是一个技巧吗?还是一个玩具吗?还是一种工具吗?我是没有信仰的。

如果假设我当年就能找到这个逻辑原点——我对人的精神世界非常感兴趣,那么 AI 就是一个工具让我去探索人类的精神世界,我相信人工神经网络能够产生和人一样的精神世界——那我 94、95 年,我就不顾一切的进人工神经网络了。但是没有,我没有这个逻辑原点。

我就是 Marvin 一说这个东西不靠谱,大师说了,大师就是我的逻辑原点,然后我就自然就跑不见了。这就是回到我刚才讲的,我觉得我们人生,刚才说我们中国的教育,我们的人生就缺少一个引路人,逼着我们去找这个原点,引导我们去找这个原点。

因为每个人的道路都是不一样的,有的是比如说造火箭,有的去做神经网络,有的去教书,有的去搞艺术,我觉得都没问题,道路都可以。但是你去做任何一个选择的时候,或者大选择的时候,你需要一个逻辑原点。但是我们从来就没有人引导我们去找这个逻辑原点。

你知道吗,我们都是随波逐流的。我为什么要上北大?因为北大是中国最好的大学,那我就去上北大。我没有去想过其他的原因的。后来去学了心理学,就是偶尔看了一本书。等等你就会发现,你人生是由一个个巧合组成的。那巧合对了呢,你走到今天;巧合错了呢,你可能就死在一个地方,然后来回打转。

但是我们的教育,没有人去逼着大家去想:你的逻辑原点是什么?你的底层逻辑是什么?没有。所以直到到了我这个年龄,我才开始想这个逻辑原点的事情,其实已经很晚了,你已经错过了。

涌现:智能的第二要素

第二个我觉得智能最重要的就是涌现。涌现是什么意思呢?涌现在我们现在人类上面,我们已经看不见了。我们从现代人类上面,你过 100 年,过 1000 年,其实你看不见这个涌现了,因为我们人的大脑它其实已经定下来了,你要再出点新的东西,你是看不到。

但是呢,从猴子变成人,这是一个涌现。我们人有很多很多东西是动物没有的,而这些东西靠的全是涌现。而这个涌现其实就靠一个东西——就是我们的神经元变得越来越复杂,神经元的数量变得越来越多。

就像那个物理学一样,一个粒子两个粒子,你给我谈什么涌现,没有意义,谈涌现完全不存在。只有当他粒子数量增加,它的复杂度增加——记住这一定是两个:数量加复杂度,两个增加,才会有复杂系统,复杂动力系统才会涌现。

智能其实就这两个:

  • 第一个学习,我能不断创造出新的东西出来

  • 第二个,就我能够从智商超越我已有的物种,变成一个全新的物种

涌现这个在目前来说,几千年来人类已经没有涌现了。人的大脑他已经长成这样子了,神经元的复杂度不可能几千年发生变化,我们神经元的数量在几千年之内不可能再有大的变化。所以从这角度讲,涌现这件事情在人身上已经结束了。

人类大脑:进化史上的奇迹

大脑在 300 万年体积增加 3 倍,就是进化史上最大的奇迹。不然的话,我们今天的世界应该就是一个原始的世界,看不到什么科技摩天大楼,完全没有。我们就跟猴子一样,我们就跟猫一样,快快乐乐的来到这个世界,莫名其妙的死掉。这个世界就是一个没有意义的世界。因为我们有了智能,这个世界才有意义。

大脑已 100% 开发

有一个常见的 misconception 说人类只开发了大脑的 1% 或者 1/10,这个是错的。我们大脑随时随地都 100% 在用。

我们假设有时光穿梭机,我们把现在的小孩,就一个刚出生的小孩,两个月大小的小孩,我们用时光穿梭机送回到比如 6000 年前,送回到 10000 年前,请问我们这小孩会比 6000 年前的小孩更聪明吗?绝对不会,一样的傻。

为什么?因为 6000 年基因没什么太大的变化。所以 6000 年前我们人是多么的弱智,你连加法都不会做,连数数都不会数,我们小孩过去也不会。其实我们现在之所以能做加法能做减法,其实就是我们后天的教育。后天教育我们已经到极致了,我们已经学的够辛苦了。所以我们大脑是 100% 已经开发了。

而且是有很多科学的证据,比如说我们看磁共振的数据,看脑电的数据,你可以看到任何一个问题我们大脑是满脑袋都在放电,绝对不是说只有一小撮在这儿活跃,其他地方都是静默的。

谣言是怎么来的?就是很多那种培训机构宗教场所,开发你的潜能啊等等,那我就必须得给你一个科学的证据,说你大脑还没开发,还有 potential,就是你还有很多机会。惯用的一个骗子的理论,完全无中生有。

人类智能涌现的时间点

在历史上,虽然说人类从猴子变成人花了 300 万年,但是涌现进化史上是有时间点的,大概是距今 7-10 万年前。因为从当时的考古上来看,考古挖石器,突然在距今 7-10 万年前,石器一下数量品种呈指数方式的增加。

以前的一个石器,100 万年都是同样的形状,只是打磨的更光滑一点而已。而距今 7-10 万年前,那就是我们当时智力的开始涌现。那个时候其实非常简单,就是我们的大脑体积已经增加了三倍了,可以涌现智能了,于是就涌现了智能。

所以说我们人之所以真正为人,其实距今也就只有 7 万年到 10 万年的历史。之前的几百万年,都是你要变成人的一个必要的准备阶段。

GPT-3.5:AI 的涌现时刻

就跟那个神经网络一样,你必须要从 Perceptron(感知机)开始,必须要经过这漫长的准备阶段。你说 Perceptron(感知机)有智能吗?它有啥智能,基本上啥智能都没有。到那个 MLP,然后到后面的深度训练网络,你说有智能吗?那智能今天看上去都特别的可笑。就跟我们看猫和狗的智能一样,觉得特别的可笑。

但事实上,一旦大模型出现了之后,ChatGPT-3.5 出现了之后,大家一下就被震傻掉了。所以说 GPT-3.5 出来给人的感觉和前面的 AI 相比,它不是说往前面走了一步,它是不同的物种。

在 3.5 之出来前就是一个工具,AI 就是个工具,面孔识别机场上可以用。但 3.5 出来之后,它就是人了,它就是一个物种。人类的 7-10 万年前就是 GPT-3,生成式变得 general 了。

四、意识的本质:死亡意识与意义追求

主观感受 vs 死亡意识

当时黄仁勋上 Joe Rogan 的那个播客,Joe Rogan 去问黄仁勋,就是说你看人工智能会变得特别聪明,然后把我们人类全都干掉,担心这样的一个未来。黄仁勋就说,我觉得人类是有 consciousness,然后他觉得狗是有 consciousness 的,但是他觉得机器是没有 consciousness 的。

黄仁勋说这句话的时候,我觉得他自己都不会相信,只是宽大家的心而已。还是套用 Hinton 的那句原话:大脑可以产生意识,没有理由人工神经网络不能产生意识。他是故意把意识和智能分开说的。

从狭义的来讲,意识和智能的确是分开的。我们大量的研究也表明了,聪明和 consciousness 它可能是没有一个直接的相关。我觉得意识是比智能更高一级。比如说我们现在说现在大模型它有智能,这个是没问题。但我们说现在大模型它没有意识,我觉得这个也是成立的。

但是我们说人工神经网络将来不可能拥有意识,我觉得这句话是错的。因为我们大脑能拥有意识,那人工神经网络就一定能拥有意识。

意识这件事情,我从两个层面上来讲:

一个是大部分的动物或者高等动物都有的,我把它称为叫做 subjective experience(主观感受)。比如说我们家的猫,比如说我对它不好,我踢它一脚,那他下次看见我肯定就会躲得远远的。然后我踢他一脚,他肯定会很难受。狗我踢他一脚,他可能就扑上来要咬我。这种我们对外界环境的主观的体验,我觉得这个是人有,动物也有,这个是没有任何问题的。

大模型有没有 subjective experience 呢?关于这一点,大家持两派观点。有的人认为他有,有的认为他没有。比如像 Ilya Sutskever,他就认为大模型已经有了;Hinton 也认为大模型已经有了 subjective experience。有的说没有。但我觉大模型有还是没有,现在这个是一个比较次要的东西。

人类独有的死亡意识

我现在想来谈人所独有的东西。人所独有的意思,我觉得是一个比较高层次的东西。简单来说是什么?就是我们人有一个人有而所有动物都没有的一种意识,叫做死亡意识。

你看我们家的猫,我们家的狗,还有其他的,他们都没有死亡意识。到他生命的一刻,他觉得不行了,他找个地方躺下去,平时就是没心没肺的活着。但人不一样,人是你在很小的时候,4 岁 5 岁你就知道你会死掉。无论是谁,大家都知道自己会死掉。

那么这个死掉,就比如像你现在身强力壮,身体健康,非常好,但你也知道再过个几十年你也会死掉。那么对于人而言,其实人就生活在一个最大的确定性和一个最大的不确定性之间:

  • 最大的确定性就是我们的死亡意识——我知道我要死掉

  • 不确定性就是我不知道我什么时候死掉——有可能是明天,有可能是 100 年之后,我们不知道

所以说人就是处于这种最大的确定和最大的不确定之间,这就会激发出人和动物的一个最本质的区别——意义。

意义:人类存在的核心

我为什么活着?在我活着的期间,我能干一点什么样的事情?干一点有意义的事情。而不像一只猫一只狗一样,我吃饱喝足,有个安全地方睡觉。这个对我们现在绝大多数人来说,这已经是能满足了——吃饱喝足,有个安全的地方睡觉。

但是你看我们现在,比如说进行这个 talk,你说和我们吃饱喝足有关系吗?没关系。和我们有个安全地方睡觉有关系吗?没关系。但是我们花很多精力在这上面,为什么?我们就追求意义感。

所以这就是我们人类所独有而动物所没有的东西,我觉得这是意识的本质——追求意义。

比如说我们说一个人得了重度抑郁,跳楼自杀了,为什么?因为他觉得生活没有意义了,他的意义感缺失。这是很多精神类疾病的一个核心。一个有强烈意义感的人,他是不可能得任何精神疾病的。

心理咨询专门有个疗法叫意义疗法。你说你有什么病我不给你治这些病,我来帮你找意义。我帮你把意义找到了,你找到你活下去的意义了,什么毛病都全都没了。所以这是积极心理学里面专门有一个叫意义疗法,就专门来帮你找意义。

我觉得这是 consciousness 里面最核心的一个东西——死亡意识,由死亡意识所驱动的。

死亡意识的考古证据

动物没有死亡意识的。对于人类而言,在那个 300 万年的演化里面,其实人之前也没有死亡意识的。从哪点可以看出来呢?具体时间记不清楚,大约距今 4 万年左右,人类开始出现大量的墓葬——人死了之后会把他埋起来,还给他放点锅碗瓢盆,相信来世这件事情。

这是人有意识的一个重要的标志。什么意思呢?精神和肉体的分离。你死了你的肉体腐烂,这是大家能看得见的,但大家认为你的精神还在,你的精神到了天堂,去了地狱,或者会有来世,会有转世。所以大家认为你的精神是没有死掉的。

那么这个精神是什么?就是我们的意识,自我意识。也就说我的肉体烂掉了,但是我并没有消失。所以说意识的核心其实就是死亡意识,这个是人类所独有的,其他动物没有。

AI 能有死亡意识吗?

我们回到 AI 上面来讲,AI 是没有死亡意识的,而且永远不会有死亡意识。为什么?一块 CPU 烧了换块 CPU,硬盘烂了换块硬盘,它是可以永生的。

所以说从这个角度上来讲,一个非常有趣的事情,就是 AI 它能不能找到自己的意义?当它没有死亡这种压迫的时候,它还能找得到它进化的意义,找到它前进的意义?

我觉得从这一点上来讲,这是摆在我自己面前一个最大的疑问——AI 能不能真正的自主进化?我们人是自主进化的。你看我们人类最大的特点就是爱折腾,明明能吃饱穿暖,你还去折腾什么科技,还要搞更大的创造力,其实你完全没必要。

所以说我觉得这一点,是现在人类有而 AI 可能在将来都不会有的死亡意识。然后我们回到刚才黄仁勋的讲话,回到 Hinton 的讲话,我觉得 AI 拥有 subjective experience 完全没有任何问题,但是 AI 他不可能拥有死亡意识。

这个时候就会产生一个问题:他还会不会主动进化?或者他按照另外一条方式进化,和人类就不一样?因为我们人类进化就是被死亡所驱动的进化,而 AI 当它没有死亡来驱动它的时候,它会不会有其他东西来推动它的进化,比如好奇心还是什么样子来推动?所以这点我就不知道了。

五、AI 的瓶颈与未来:从 Transformer 到脑科学

Transformer 的三大瓶颈

当前基于 Transformer 的 AI 模型面临三大瓶颈:

第一,神经元复杂度的不足。人类大脑的神经元不仅数量多,复杂度也远超 AI 模型。一个神经元有上万个树突,每个树突上有成千上万个突触,这种复杂度是现在 AI 模型完全无法比拟的。

第二,长程反馈连接的缺失。人类大脑拥有 40% 的长程反馈连接,这些连接对于产生创造力、解决复杂问题至关重要。但现在的 Transformer 模型基本上是前馈网络,缺乏这种反馈机制。

第三,并行加工能力的缺乏。人类大脑具有强大的并行加工能力,可以同时处理多个任务。但现在的 AI 模型主要还是串行处理,这限制了它们处理复杂问题的能力。

脑科学的突破是关键

我认为,脑科学的突破将是 AI 进入下一阶段的关键。我们需要从大脑的工作原理中汲取更多灵感,不仅仅是模仿神经元的连接方式,更要理解大脑是如何产生智能、如何学习、如何创造的。

这也是为什么我要把脑科学和 AI 结合起来做研究的原因。我相信,只有深入理解大脑的工作机制,我们才能真正突破当前 AI 的瓶颈,创造出更接近人类智能的系统。

具身智能的真正含义

现在很多人对具身智能有误解,认为只要把 AI 装到机器人身上,让它能够感知环境、操作物体,就是具身智能了。但真正的具身智能远不止于此。

真正的具身智能是指,智能体通过与环境的持续交互,通过身体的感知和行动,来发展和完善自己的认知能力。这不仅仅是感知-行动的循环,更重要的是这种交互如何塑造智能体的内部表征,如何影响它的学习和推理过程。

人类的智能就是在与环境的持续交互中发展起来的。婴儿通过触摸、抓握、移动来理解世界,这种身体经验深刻地塑造了我们的认知结构。真正的具身智能需要达到这个层次,而不仅仅是让机器人能够走路、抓东西。

六、AI 时代的教育:从应试到创造

应试教育的全军覆没

在 AI 时代,传统教育模式(尤其是记忆知识)已失去价值,因为 AI 能提供所有知识。我们以前的教育是什么?就是让孩子记住大量的知识,然后通过考试来检验他们记住了多少。但在 AI 时代,这种教育模式已经完全失效了。

为什么?因为 AI 可以记住所有的知识,而且记得比人更准确、更全面。如果我们还是培养孩子去记忆知识,那他们永远无法和 AI 竞争。

教育应该回归本质

教育应回归本质,培养孩子成为“自己”。这包括三个方面:

第一,找到兴趣和目标。这就是我刚才说的找到自己的逻辑原点。每个人都应该问自己:我为什么要做这件事?我的底层动机是什么?我的人生意义在哪里?

这不是一个容易回答的问题,但这是一个必须回答的问题。我们的教育应该帮助孩子去探索这个问题,而不是告诉他们“你应该做什么”。

第二,具备 AI 原生的思维模式。也就是学会与 AI 共生。AI 不是一个工具,而是一个伙伴。我们需要培养孩子如何与 AI 协作,如何利用 AI 的优势,同时发挥自己的独特价值。

这就像我之前说的,用 AI 就像谈恋爱一样,需要理解对方,需要沟通,需要磨合。这不是一个技术问题,而是一个思维方式的问题。

第三,培养 0 到 1 的创造力。这是最重要的一点。在 AI 时代,真正有价值的是创造力,是从 0 到 1 的能力,而不是从 1 到 100 的能力。

我们需要鼓励孩子运用演绎推理和第一性原理思考问题,而非仅仅停留在表面分析。我们需要培养他们找到逻辑原点的能力,培养他们敢于挑战现有框架的勇气。

从“术”到“道”

我觉得在 AI 时代,我们的教育需要从“术”转向“道”。以前我们教孩子各种技能,各种方法,这是“术”。但在 AI 时代,这些“术”很快就会过时,因为 AI 的迭代速度太快了。

真正重要的是“道”,是底层的思维方式,是 philosophy。这才是能够让孩子在 AI 时代立足的关键。

我觉得你们做的这个课程,就是在教“道”,而不是“术”。这是非常有价值的,因为这是这个时代最缺的东西。

小术易求,大道难得

我们以前经常说一句话,叫“大道易得,小术难求”——方法大家都懂,但是大家照样过不好这一生。这是我们经常说的俗语。

但是我觉得 AI 时代正好反过来。我觉得小术易求,大道难得。各种各样的工具,各种各样的技巧层出不穷,小术易求。但是大道难得,就说我们怎么去从底层去理解这件事情,反而是我们这个时代特别困惑的。

七、结语:寻找自己的逻辑原点

回顾我自己的经历,我觉得最大的遗憾就是没有早一点找到自己的逻辑原点。如果我在 94、95 年就能找到,我就不会走那 20 年的弯路。

但另一方面,这 20 年的脑科学研究也给了我独特的视角,让我能够从一个不同的角度来理解 AI。所以也许这个弯路是必要的,就像你说的,也许这是“降临派”的安排。

对于现在的年轻人,我想说的是:不要等到我这个年龄才开始思考这个问题。尽早去寻找你的逻辑原点,去思考你为什么要做这件事,去找到你人生的意义。

在 AI 时代,这比任何技能都重要。因为技能会过时,但你的逻辑原点,你的底层信仰,这是永远不会过时的。这是你在这个快速变化的时代中,唯一能够抓住的锚点。

最后,我想再次引用 Hinton 的那句话:人的大脑就是这么工作的,没理由人工神经网络不这么工作。

这句话不仅仅是关于 AI 的,它也是关于我们自己的。我们需要理解我们自己的大脑是如何工作的,我们的智能是如何产生的,我们的意识是如何形成的。只有理解了这些,我们才能真正理解 AI,才能真正在 AI 时代找到自己的位置。

这是一个最好的时代,也是一个最具挑战的时代。让我们一起去探索,去创造,去寻找我们的逻辑原点。