2016年,围棋天才李世石惜败AlphaGo,但他使出“神之一手”,被誉为人类智慧最后的荣光。仅仅一年后,AlphaGo Zero以100:0的绝对碾压,将曾战胜李世石的“前辈”彻底击溃。更令人震惊的是,它达到这个水平只用了3天,没学习任何一盘人类棋谱。
这背后揭示了一个残酷的真相:“人类引以为傲的千年经验,在真正的智能进化面前,可能非但不是资产,反而成了认知的枷锁。”元理智能创始人张帆一语道破。张帆,前智谱AI COO,亲历百模大战,曾主导数十亿大模型项目落地。如今再创业,目标是解决AI时代最难、也最关键的命题:如何将智能转化为核心生产力?
今天,智能仍在一路狂飙。你刚学会的应用,下个月可能就过时了;你刚掌握的工具,下一波迭代又来了。还有什么能抓住的吗?张帆老师提供了一个思路,那就是掌握“大模型思维”。它不是又一个时髦词汇,而是一种全新的认知范式:
别人还在优化现有知识,它已直指事物本质规律;
别人还在追求确定性,它已精通概率与不确定性的艺术;
别人还在囤积数据,它已懂得真正的价值在于智能的转化与释放。
“工业时代的赢家是‘控制者’,”张帆说,“而今天的赢家,是那些掌握大模型思维、懂得概率管理的人。”你企业的核心竞争力,不再是你拥有多少数据,而在于你能消耗多少智能、转化多少智能。这将是未来十年最残酷也最公平的竞争。
上周六,张帆老师在混沌APP的深度大课《大模型时代的第一性原理:智能涌现的底层逻辑与商业范式重塑》中,从三场人机对弈出发,剖析智能进化的底层逻辑,最终聚焦于每个企业与个人最迫切的课题:如何重塑思维,抓住未来。
本文为课程内容精编,仅占全部内容十分之一,完整版在混沌APP。
人机对弈,智能进化
回顾过去两三年,技能迭代速度极为迅速,也因此引发了各类焦虑情绪。我认为在高速变化的时代,更为重要的是找到其中不变的核心要素,那就是大模型思维。什么是大模型思维?我们可以在智能领域找一个合适的研究样本。机器诞生以来,人类就一直在探索如何让机器与人进行对弈,我们将以此为人机博弈最小样本,梳理智能发展的简要历程。
第一个阶段,“深蓝”击败卡斯帕罗夫
1997年的人机对弈,“深蓝”最终击败卡斯帕罗夫,是机器首次在高级博弈领域战胜人类世界冠军。卡斯帕罗夫当时也难以接受机器能够击败自己的事实,甚至怀疑机器背后有人在操控。
“深蓝”背后的核心原理,是符号主义的巅峰应用,其本质逻辑是“规则+穷举”。具体而言,就是将人类棋手的历史经验总结为一系列下棋博弈的规则,再让计算机以每秒2亿次的速度进行推演。这一过程中也融入了剪枝逻辑,确保计算机无需尝试所有棋局,以高效方式完成博弈。
“深蓝”击败人类冠军的消息令人震惊,当时大家普遍认为,围棋很快也会被机器攻克。然而,从国际象棋被攻克到围棋被攻克,机器用了20年时间。核心原因在于“维度的诅咒”。围棋与国际象棋属于完全不同维度的搜索空间。围棋棋盘为19x19规格,其搜索空间约达到10的170次方。在这20年间,即便计算机性能提升1万倍,面对围棋极为庞大的搜索空间,也只是杯水车薪,无法从根本上解决问题。
第二个阶段,“神奇的37手”和“神奇的78手”
进入第二个阶段,人机博弈的核心逻辑从“暴力计算”转向“数据暴力”。彼时的机器采用了神经网络技术,不再依赖传统的规则逻辑,而是模拟人类的直觉,通过神经网络,将历史上所有人类围棋棋局作为训练数据,让机器形成降维表达,以类似人类直觉的方式作出判断。
正是基于这一逻辑,2016年,机器击败了当时的围棋世界冠军李世石。李世石的心态从对弈前的轻蔑,逐渐转变为对弈后的绝望,因为他意识到,自己已无法战胜眼前的机器对手。
这一局精彩的对弈,出现了两个极具标志性的节点:“神奇的37手”和“神奇的78手”。
在37手时,AI走出了一步超出人类预期的棋。当时的直播解说甚至怀疑,是摆棋人员出现了失误,认为这一步不符合围棋逻辑,甚至可能是程序漏洞。这步棋在短期局面中造成一定损失,但随着棋局的推进,AI最终赢得了这一局。事后复盘发现,AI放弃了局部最优解,转而追求全局胜率的最大化。 这一现象让人类感到震惊:机器首次在遵循人类规则的基础上,突破了人类规则的局限,走出了人类认知边界之外的棋法。
78手同样具有重要意义。在78手这一节点,李世石下出了一个完全超出机器预判范围的位置,导致其无法进行有效推理。机器在这一步之后出现明显混乱,并在随后数十步内持续处于失序状态。因此,这一手被不少人称为“人类最后的荣光”。
这一现象背后的逻辑,与AlphaGo的核心架构密切相关。AlphaGo基于蒙特卡洛树搜索框架。其中最具价值的部分,是基于人类三千万局棋谱训练得到的两个核心网络:一个是策略网络,一个是价值网络。
策略网络的作用,是在当前盘面下筛选出少数具有潜在价值的落子点。通过数据驱动的方式进行大规模剪枝,大幅缩窄搜索空间。在锁定少数高价值点位后,再由蒙特卡洛树搜索进行深度推演。每一步落子后,价值网络会对当前局势进行评估,判断己方获胜概率是上升还是下降。
李世石78手为何能够奏效?因为其策略网络本质上建立在人类经验之上,它会对各个点位的概率进行评估,判断人类在不同位置的落子可能性。而李世石下出的,是一个在模型评估中概率极低、几乎不在常规考虑范围内的落子,完全超出了策略网络预设的搜索范围,从而直接打乱了机器的整体决策节奏。
从“深蓝”到AlphaGo,关键变化在于:前者站在人类显性规则的肩膀上,由人类将经验提炼为固定规则;后者则将显性规则转化为基于海量棋谱的直觉式判断,并以此战胜人类。尽管最终AlphaGo以4比1战胜李世石,在这一阶段,人类仍具备与机器博弈,甚至局部突破的能力。
第三个阶段,AlphaGo Zero
2017年,更具颠覆性的形态出现:AlphaGo Zero。其核心逻辑是完全不再依赖人类知识,仅通过自我对弈完成学习。自我对局、自我总结,从零基础开始,完全依靠自我博弈完成智能进化。
一个通过自我博弈进行训练的模型,仅用三天时间,便以100:0的绝对优势击败了曾战胜李世石的AlphaGo Lee;在后续几天的训练中,战斗力持续攀升,直至第40天,该模型的战斗力基本超越了所有现有模型。人类积累上千年的围棋经验,在模型的自我博弈训练面前,被彻底超越。
从算力消耗来看,AlphaGo Lee的训练需要由1200个CPU与176个GPU组成的庞大算力集群。而采用自我博弈模式的AlphaGo Zero,仅需4个TPU即可完成训练。两者的算力消耗不在同一维度。这一现象表明,人类积累的经验不仅未对模型训练起到正向推动作用,反而可能成为一种负担,限制了模型的发展空间。
数据层面的差异同样显著:AlphaGo Lee的训练依赖3000万份人类围棋棋谱。而Alpha Go Zero的训练未使用任何一份棋谱、任何一点人类围棋经验。
结合ELO评分来看,人类棋手的最高峰值约为3800分,AlphaGo Lee的评分约为4000分。但在AlphaGo Zero面前,人类智慧的优势似乎完全消失,其ELO评分直接突破5000分。这也印证了柯洁的观点:在AlphaGo Zero这类模型面前,人类几乎不可能再取得围棋对战的胜利。
这一现象背后的核心逻辑是:人类长期被自身积累的经验束缚,陷入了局部最优解的困境。而AI模型无需依赖人类经验,仅通过“自我对战—结果反馈—经验总结”的闭环模式,在三天内完成了490万盘围棋对战的学习,积累了远超人类的围棋知识。
AI时代最核心的思维方向
总结来说,围棋博弈的对战历史,正是人类对智能与知识认知不断迭代的过程:最初,我们把人类智慧视为至高无上;后来,我们基于人类规则研究,却发现知识本身存在偏差与局限;于是转向依靠海量人类数据训练模型,从“计算暴力”走向“数据暴力”,但仍未跳出人类认知框架;最终,我们意识到,人类数据并非必需,AI可以完全脱离人类经验,实现自我迭代与突破。这一过程,本质是对人类数据价值的不断反思与重估。
什么是AI时代最核心的思维方向?
如何学习AI思维?
文章仅为课程1/10,请前往APP看课
智能的本质
当下AI的核心逻辑,是探寻事物本质规律,而非仅仅优化人类现有知识。人类数据自带偏见,在不同阶段,它可能是资产,也可能是噪音,甚至是认知枷锁。由此,我们必须重新思考三个关键问题:如何定义智能、如何定义知识、如何有效沉淀。这正是AI时代最核心的思维方向。
知识的本质即“有损压缩”。
目前学界较为共识的结论是,全宇宙的原子总数约为10的80次方。若宇宙是可计算系统,其求解空间之大,人类永远无法穷尽。在庞大的搜索空间中,剔除无价值的冗余信息,剔除所有无意义的噪点,仅保留少量极具价值的核心内容——“遗忘”,这就是知识的核心逻辑。
知识并非对世界的简单复制,而是对世界抽象后的高维投影,“做减法”才是知识的本质所在。这也印证了“全知即无知”的观点:当我们拥有所有可能的答案时,反而无法获得真正有价值的答案。信息的价值不在于数量的多少,而在于其有序性。
“压缩机理解”正是解决这一问题的关键。当我们对同一事物进行大规模采样,便会获得大量的观测数据。这些观测数据本身并非知识,只是对终极真理的采样结果。源于对这些采样数据的“压缩机理解”,将大量分散的观测结果归纳为一套简洁的规则,且这套规则能够预判未来的采样结果,此时,这些规则便成了知识。
用一个简单案例理解知识的形成:盛满水的杯子倒置,水必然洒出,重复多次结果始终一致。通过反复观察采样,会归纳出结论——盛水的杯子倒置会洒水,这便是知识。知识具备稳定可验证性,通过压缩后的规律,我们能预判不同颜色、不同样式水杯倒置的结果,这就是知识在大脑中的泛化。我们不必记住每一次倒水的细节,只需抽象出通用规则,就能在未知场景中做出预判。
知识的价值不在于验证观测对象的绝对真实性,而在于通过对信息的归纳,形成可预测的有序规律。例如,我们无需实际触摸开水,便能通过已有的知识预判“触摸开水会被烫伤”这一结果。这种无需直接采样便能实现的预判,正是知识的核心功能。
顿悟:损失值下降与泛化突变
接下来我们探讨:观测到的信息如何转化为知识?从数学与人类认知的角度来看,这一过程可概括为“顿悟”。比如学骑自行车,初学者可能多次摔倒,积累了大量尝试经验,却始终无法掌握平衡;直到某一时刻,突然突破瓶颈,掌握了骑行技巧。这种“豁然开朗”的瞬间便是顿悟。
我们可以通过“损失值(loss)”来理解这一过程:损失值本质上是对观测样本预测准确性的量化评估。在未提炼出规律之前,我们的认知往往处于“死记硬背”的阶段,本质上是对观测样本的机械记录,而非知识的形成。
随着观测样本的不断积累、泛化范围的持续扩大,当积累达到一定阈值时,便会出现“顿悟”——比如在多次计算各类乘法后,突然领悟到“九九乘法表”的规律。这一规律能将上千个乘法样本压缩为一套简洁的规则,不仅能解释已有的所有样本,还能精准预测第1001个乃至更多未知的乘法结果。与机械记忆上千个样本相比,九九乘法表的存储规模极小,而泛化能力却极大提升。
顿悟,本质上就是损失值的快速下降——当规律被提炼出来的瞬间,原本无法预测的场景变得可预测,原本零散的观测样本被整合为有序的知识。这也正是知识的本质:通过对观测采样的压缩与规律提炼,实现对未知场景的精准预判。而在人工智能领域,这一突变体现为损失值(loss)的急剧下降;在人类学习过程中,则表现为突然掌握认知规律、理解事物本质的状态。
所有知识的顿悟本质上都会带来泛化能力的提升——顿悟前仅能解决已知的旧问题,顿悟后则能够解决未知的新问题。
智能的不可能三角
随之而来的问题是:知识的压缩是否存在衡量标准?如何衡量其优劣?这就需要建立一套针对智能的衡量标准,而智能的衡量存在一个“不可能三角”。
智能的不可能三角包含三个核心维度:其一为压缩率,即把庞大的知识体量压缩至多大范围;其二为损耗率,即知识压缩后能否还原,以及还原后的结果与原始信息的预测准确度;其三为算力损耗,包括知识压缩过程与解压(应用)过程中的算力消耗。
类比将4K高清照片压缩至720P的过程。在传统的解压方式中,通常采用插值法,这种方式虽能扩大图像尺寸,但会导致图像模糊,即损耗率升高。
人类的大脑(当前大模型的模式也类似)“解压”的方式则不同:若给予人类一张低分辨率照片,人类大脑的“脑补”过程并非简单的插值,而是将自身对物理世界的经验认知映射到图像中。还原后的图像分辨率优于传统插值方式,但还原过程中补充的细节可能存在偏差,不过这种偏差并不影响整体认知——这正是损耗的本质:知识压缩过程中,必然会丢弃部分信息,即“遗忘”,我们通过遗忘被判定为“噪声”的信息,实现知识的压缩。这种“遗忘”并非错误,而是高维信息向低维信息转化过程中必然的维度简化;而后续的“脑补”(即大模型的生成或人类的联想),本质上就是对压缩后信息的还原,这一过程所产生的偏差,即我们所说的“幻觉”。
简单来说,将低分辨率的信息通过主观补全转化为高分辨率信息时,其中会产生原本不存在的信息,这些被创造出来的信息即为幻觉。由此可见,只要存在知识,就必然伴随幻觉,这是知识的本质属性。而这种信息补全过程中产生的差值,同时也会催生新的创造力,这是我们在知识压缩过程中必须承担的代价。
此处需要明确的是,知识没有绝对真理。我们所有的知识都基于采样,而采样又基于特定的投影平面。因此,所有知识都存在边界。人类的认知边界,在认知发展的过程中不断向外扩展。我们需要回归知识的底层第一性:不存在绝对正确的知识,只存在明确的认知范围、范围内的投影面,以及投影面内的相对真理。智能既压缩,生成既理解。只有当我们能够生成信息时,才能真正实现对知识的理解。
如何实现知识的有效传递知识的载体演变
知识载体主要分为三类,分别是规则、语言以及脑神经(即直觉)。
规则的设计目的是便于衡量与传播,因此必然具备极高的压缩比,同时也存在明显的知识损耗。比规则维度更高的知识载体是语言。语言的维度远高于规则。语言的高表达力使其具备了泛化与推理能力。比语言维度更高的知识载体,是高维本体,即人类的脑神经。当这些知识被转化为语言时,必然会产生损耗。
知识的传播过程,本质上是从脑神经,映射到语言,再映射到规则的过程。但脑神经载体的最大局限是无法直接传播。
人工智能的两个流派,分别是符号主义与连接主义。符号主义的核心是学习规则体系,而连接主义则是模拟人类脑神经的工作机制。
连接主义不再依赖人工定义规则,而是构建高维特征空间。这便是机器学习的本质。连接主义中一项关键技术是Embedding(向量化)。这首次将离散的文本词汇映射为连续的可计算向量。语言的语义首次具备了可计算性。语言的核心在于Transformer架构。能够将离散的语言映射到更高维度的向量空间,把整句话表示为一个矩阵。语言处理从规则推导转变为数学计算。
Scaling Law的核心逻辑是:既然我们采用的是连接主义思路,那么模型规模越大,就像人脑神经网络一样,其存储容量和表达能力会呈指数级提升。每增加一个参数,表达空间至少会成倍扩展。我们不再需要像过去那样,精心设计更完善、更精巧的规则,只需要提供足够大的模型空间和足够多的数据样本,让模型自主拟合出底层规律,使损失函数降到最低,实现最优的信息压缩。
语言为什么是AGI的开端?
我们前面已经提道:语言的本质,是人类认知的操作系统。语言是人类脑神经活动的一个降维镜像。它把大脑中极其复杂、难以直接描述的神经活动,转化为一种可记录、可沉淀、可表达、可计算、可推理的符号体系。
可以说,语言处在一个中间位置:规则是高度人工的,人脑是高度自然的,而语言正是人工与自然的交汇点。它既是思维的投影,也是交流的工具;更进一步,语言是思维的脚手架。
正如哲学家所言:语言的边界,就是我思考的边界。通过语言,脑神经活动转化为文字、进行描述,传递给他人。由此,知识开始具备可积累、可沉淀、可推理的特性,能够模拟大脑的思考过程。这就是语言的本质。掌握语言,本质上就是掌握了推理能力。这正是语言模型与以往模型最核心的区别。
语言模型带来的另一个关键突破,是显空间与隐空间的区分。我们的大脑可以理解为一个高维隐空间。而语言,就是这个高维隐空间对应的显空间。人类所有的交互、讨论、沟通、学习,本质上都是:将个人大脑的隐空间坍缩为显空间,再通过语言把显空间传递给他人,对方再将其升维重构为自身的隐空间。语言真正实现了两个高维认知空间的映射与交流。
综上,今天大语言模型能够成为AGI开端,本质源于语言本身的特性:它是大脑的映射,具备思考能力,更具备推理能力。大语言模型对世界的建模,本质上包含三个环节:
第一环:预训练——为知识建模。把人类世界的全部知识,极致压缩到基座模型中。
第二环:为生产力建模——模型的“解压”。我们把知识“压缩”进模型,目的是“解压”与预测——用压缩后的知识,去预测物理世界的演化,最终转化为现实生产力。
第三环:为学习建模——在观测视角中寻找最优。
因此,预训练模型的本质可以总结为:预测即生成,生成即理解。
机器无法直接高效观测物理世界,于是以人类为媒介:人类数千年与世界交互、观察、沉淀,形成书籍、文字与知识体系。我们的工作,就是把这些人类知识极致压缩,在向量空间中训练,使其具备迁移与泛化能力。大模型的核心逻辑,就是预测下一个词。基于前文不断预测后续token,最小化预测误差,当这个过程被放大到极致,就涌现出了智能。
基座模型最本质的逻辑是什么?
大语言模型成为AGI开端的根本原因?
文章内容仅为课程1/10,请前往APP看课
CEO、高管一定要有大模型思维
我们从围棋盘上的胜负,一路追问至语言与智能的本质。现在,带上这套全新的“大模型思维”,回到商业的战场。你会发现它不仅仅是技术原理,更是一套即将重塑所有竞争规则的商业底层操作系统。
从确定化管理到“概率管理”
我们反复强调AI思维的本质与第一性原理,核心就是要明确:AI的核心是不确定性,不确定性孕育智能,因此AI思维本质上是概率导向的。
必须清晰地认识到,确定性已不复存在,不能再用程序思维去解决当下的问题。在传统模式中,我们编写代码追求绝对确定性,绝对确定性必然导致缺乏泛化能力。缺乏泛化能力就无法产生智能,这是一条无法突破的局限路径。
打个比方,传统企业思维模式如同精密的机械钟表,每一步运行都有强烈的业务逻辑联动,一旦设计成型,运行轨迹便固定不变。企业运营的所有环节都遵循百分之百可执行的标准(SOP)。当前,这种确定性逻辑不再适用了,它脱离了AI思维的核心内涵。这也解释了为何当概率思维融入确定性的SOP体系时,组织会天然产生排异反应。
每一位企业家的思考链路,都必须从机械确定论转变为概率论:通过调整参数、优化概率来实现预期结果,既要保证一定的确定性,又要保留创造力。
工业时代的赢家是“控制狂”;AI时代的赢家是“概率管理大师”。拿提示词(prompt)举例:若将提示词的定义得过于细致、流程设计过长,甚至通过填表式的方式限定输出结果,用确定性流程去控制概率,输出结果必然难以达到预期。因为过度细分的限制,割裂了其泛化能力,使其只能机械执行既定指令,无法发挥智能的价值。
概率管理的核心逻辑是,通过调整方向、引导趋势、聚焦核心,真正实现概率导向的智能应用,既能保证创造力的发挥,也能收获超出预期的成果。
智力通缩与杰文斯悖论
另一个需要重点关注的商业逻辑,是智力通缩与杰文斯悖论。许多人担忧AI模型成本过高,大规模使用会导致亏损,但事实上,token的综合成本较行业初期已下降近万倍。
过去,专家智力如同奢侈品,企业会尽量减少使用。当下,智力已如同电力一般,Token成本的下降速度远超传统摩尔定律,这是不可逆转的趋势。很多人过度关注模型降价,但模型降价是模型公司的核心任务,对于企业家而言,更应关注模型的性价比——若能跑通一个应用场景,实现性能的提升,便无需担忧成本问题,因为token价格会持续下降,每半年至一年就会有显著变化,届时企业的增长飞轮便会自然运转。
企业的核心竞争力,在于消耗智能、转化智能的能力。谁能率先将智力转化为高价值的用户体验,谁就能成为行业赢家。当前不应过度关注成本,而应聚焦于智能的上限与价值的上限。
核心资产:场景>数据
除此之外,商业领域的另一重大思维转变,在于资产定义的重构。传统认知中,数据被视为核心资产,许多企业宣称自身拥有大量数据,并认为将这些数据用于模型训练就能形成自身优势。但客观而言,当前市场上99%的企业数据都属于无效数据。
很多企业担忧数据上传后被窃取——事实上,很多数据只是业务流程中的日志记录,一旦业务流程发生变化,这些数据便失去了存在意义。若将数据视为资产,首先要明确这些数据是否能转化为生产力;若不能,其所谓的“资产价值”便无从谈起。
当前,真正具备价值的数据仅存在于少数场景,例如抖音的推荐算法、百度的搜索体系等。绝大多数对数据安全过度敏感的企业,其数据本身往往无法被有效利用。利用牛顿的实验笔记和数据,能得出爱因斯坦的理论结论吗?在相对论时代,过度留存“牛顿”的实验数据,并无实际价值。
与其担忧数据被窃取,不如加快数据的应用。企业不应有数据囤积癖,不应将历史数据视为不可突破的护城河。我们没法用马车的数据训练出特斯拉一样,传统数据的清洗成本、存储成本,甚至会成为企业发展的阻碍,堪称“反向润滑油”,固化企业思维、阻碍企业创新。
数据的定义正在快速迭代,唯有应用场景是相对稳定的核心。只要定义出具体的应用场景(如同围棋的棋盘)和价值评判标准(如同围棋的胜负规则,即奖励模型),数据便可以源源不断地产生。
总之,在应用初期,无需过度考虑数据安全,核心在于谁能率先跑通场景、启动增长飞轮,待企业发展到一定规模、数据产生实际价值后,再考虑数据安全防护,才是合理的发展路径。谁能掌握新数据的生产场景,谁能在初期启动增长飞轮,谁就能定义行业的未来。
后记:
我的观点未必完全正确,但核心目的是为大家植入一种新的思维提示,引导大家建立对AI思维的认知与感知。如果我们仅学习提示词写法、工作流用法、某个软件的操作技巧,这些内容每六个月就可能有90%失效。既然我们处于混沌学习的场景中,就应采用混沌的核心方法——摒弃归纳法,坚持演绎法,深入理解底层逻辑,将这种思维能力内化于心。希望每一位参与者都能从中获得启发,实现自身对未来知识判断、知识加工方式的一点点转变。当前,我们正处于一个“电灯取代蜡烛”的时代,从“蜡烛思维”转变为“电灯思维”,是必修课。
从管理层来看,CEO如何转变?
为什么组织不应该是机械体,应该是生物体?
文章内容仅为课程1/10,请前往APP看课
热门跟贴