AI这么个跑法,临近年底实在有必要推测下未来的公司和人什么样。这事以前写过一点,这次把层次往深层做下推进。
未来的公司
在AI持续崛起的背景下,我认为未来的公司会变成这样:
公司会分化为两套彼此连接的系统,一套系统以执行为主,一套系统以规划为主。抽象说就是下面这张图:
原图是DeepMind画的
这张图我第一次看到是澜码周健做分享的那期AI碰撞局上。
未来很多系统几乎确定这样,但这图不复杂,可有点抽象,并且太技术,什么是Reasoner和Talker呢?
我们需要把它放回到公司的视角下,拿一些具体情境来对它进行些补充说明。
具体来讲,在公司视角下,经常说的各种职能除了我们说的战略处在规划系统(Reasoner)中,所有其它部分基本都在执行系统中(Talker),比如财务、人事、IT、市场、研发大部分等等。
需要补充说明的是:执行系统并非不做决策,而是确定条件的决策都在执行系统之中,更精确的说法是凡是可以精准建模并可以根据反馈进行决策的部分都在执行系统之中。
我们来举个例子,比如:
招聘的时候要定人才标准,也要判断某个人是否符合这个标准。这时候人才标准在规划系统(Reasoner)中输出,而对应此标准的数据模型在执行系统之中,具体判断某个人合适不合适、JD是不是写的可以外发、是否可以外发Offer这些判断也在执行系统(Talker)之中。
人的位置
如果公司变成上面这样,那人的位置在哪里?这时候会出现这样一种结果:
在规划系统中,也许需要人也许不需要人来扮演某个角色;在执行系统中几乎百分百确定不需要人(中长期)。虽然具体进度需要看基础大模型的进展,但只要想想自动驾驶中的FSD13就知道这注定发生。下面这张图,在这个背景下可以多些理解出来。
https://www.linkedin.com/pulse/openais-new-5-stages-ai-development-agi-adoption-sohn-cfa-wckfc/
再细化一点:
当规划系统需要处理的是边界条件相对比较清晰,反馈也比较清晰的,试错成本也低的情景时,那真的不需要人。
比如确定“在那里开便利店”更合适这种决策,如果自身判断标准清楚、相关数据也清楚(租金多少)等。那就不需要人。但如果决策的变量只知道小部分,相关变量一共有多少还不清楚,那就需要人来一起完成规划。
对比起来说:现在去做互联网App那差不多就是不需要人介入的情景,而做AI Native应用则是后一种情况。现在大家甚至不知道什么是智能原生应用,AI当然也就不知道,没有人的介入就很难把混沌状态转变成可以用参数、模型来描述的状态。这时候就需要规划系统打开一个接口,让人类能参与进来,最终共同确定最后的输出。
自动驾驶、招聘、编程等处于两者之间。
而试错成本之所以关键核心原因在于企业可能支付不起幻觉等所导致的成本,这时候输出的计划精度就要更高。
对于试错成本低的,比如开发某款程序,这时候目标清楚,但程序定义成什么样不清楚,这时候人参与一起打磨是个方法,另外的方法则是把责任扔给规划系统,让它输出100个符合目标的程序,然后从结果中选一个就可以,并不需要深度人类的介入。
总结来说这就相当于一个混沌状态会通过较低的试错成本摸索出结果。
执行系统是否可以实现,即使基于现在的AI进展,看起来核心麻烦在于数据的成本和精度,已经基本不是智能问题了。
近来Ilya的发言你反向解读就是:只要数据够,AI就能搞定人能搞定的事。
总结下:
未来组织中人的位置大概是:
在规划系统中,一端的极值是有一个人承担社会和法律意义,并没有经济意义,AI完成所有的事,一端则是有一个类似过去高管的团队,彼此角色互补,和AI共建规划。具体是哪种情况和领域相关。
在执行系统中,里面一端的极值是一个人也没有,另一端的极值是有很多类似外卖小哥的角色来确保数据的精度。
两者并非孤立的,而是互为输入,执行系统的结果是规划系统的输入,规划系统的输出也必然是执行系统的输入。
在这样一套系统里面,公司和个人都会发生本质性变化。包括需要的文化和组织方式。
和AIGC产品的区别
如果产品定位于此,那明显和过去2年经常说的很多AI产品有巨大差异。过去两年常见的产品往往定位于增强个人能力,比如强化AIGC的能力的出图、编码等等。
而显然的上面的规划和执行系统定位于组织,个体(智能体)固然要优秀,但更关键在于组织智能。
组织智能的关键则在于数据驱动下的反馈和自主、快速进化能力。这种快速进化能力来自于对任务的定义和大模型的智能。
单独生成能力优秀是是一时的优秀,而组织进化能力则是自我滚动的智能飞轮。
这个智能飞轮的组成是:
最终其滚动的高度受限于大模型的"智商",领域模型的质量,反馈是否能够精准收集。
这会有点抽象,打个比方:
如果说单独某方向的内容生成更像是炮弹的威力,那这种系统型产品就必须配备上准星,同时知道打出去的结果,然后校准准星。单独产品最终扔在哪儿开炸是使用者定的,系统型产品的准星是要自己调校的。
人类决策和进化算法的区别
在AI驱动的规划系统和执行系统中,其背后的思维模式是和过去本质不一样的。
如果说我们做出的各种Copilot后,用它帮助人来写作、画画、写程序等等还都是在过去的模式里面强化,那上面说的一定是彻底的颠覆。
给人打造的智能体要靠人的知识输入来定义各种Copilot的行为并获得结果,这是人类进行决策的模式。
系统中的个体则会贴近进化的思路,它可以瞬间生成成千上万个个体,只要反馈清楚,那就可以启动大规模进化。进化的过程就是淘汰的过程。
这时候计划系统本质负责这条进化路线,执行系统则负责现实的反馈收集。
估计还是抽象,继续拿招聘举例子:
按过去的思路做强化,那产品就是:按照一个优秀的招聘人员来定义优秀,然后做工具让每个人都优秀。
按照进化的思路就完全不一样,在系统中其实只需要定义优秀所可能牵扯的维度。然后1000个招聘Agent同时上线,对应结果返回给规划系统,规划系统不停的进化1000个招聘人员的设定,最终谁优秀完全可以通过反馈数据获得。显然的这是过去推荐算法筛选到底推荐谁的过程,不过这次被筛选对象也是系统自己做出来的。(1000是虚数)
顺道说一句,这和是否是多智能体没有必然联系,多智能体也可以就负责内容生成啊。
但确实和Service as a Software有关系,一定程度上没有这样的系统就没有Service as a Software。
小结
相信很多人还是记得上面这张图的,这是AlphaGo Zero的进化过程。对于系统型应用而言而言,因为大模型自身没那么快进行迭代,所以跑出的这条进化曲线会取决于你使用LLMs的方式,使用方式中最为关键的显然是数据。
单个功能是好理解的也常见,但系统级的进化和产品其实也已经开始了,AutoGPT、MetaGPT、AutoGen等演示的其实都是这类东西。群友提醒我devin这类第三代编码产品其实就是这方向。
上面这些项目最大的误导性在于,他们往往用多智能体演示一个智能体就能干的事,这有点像用演示几个人开坦克来演示一个本质是兵团作战的战役。
同样是上面这个题目和这个主题,在29号北大国发院商学开放日上会举办一场专题的AI碰撞局,感兴趣的同学请联系:shuixiu2024。这个题目也会单独开一场偏技术的,把问题聊得更透彻些。和平常的AI碰撞局相比,这次特别之处在于:
开场会有黄卓老师和侯宏老师分别发表主题演讲
会先后有两场一起
初步日程如下(可能调整):
热门跟贴