毫无疑问,2026年是AI加速发展、真正走进千家万户的一年。如果要为今年以来的中国AI行业找几个主题词,除了“突飞猛进”之外,我觉得最恰当的是 “焦虑”。人类历史上的重大科技变革发生的时刻,当事人总是无时无刻不处于焦虑状态,现在也不例外:
- 个人在焦虑,担心被AI淘汰,担心错过了最新的AI知识。每个人都在养龙虾;聊天如果不聊Agent,那简直不可能。
- 各行各业都在焦虑,就拿我熟悉的影视行业、游戏行业来说,在巨大的降本增效压力下,AI工具成为了唯一被寄予厚望的变量,但怎么用、用在哪,真正想清楚的人却很少。
- 互联网大厂、中厂其实也在焦虑,纷纷陷入“AI熵增”的怪圈:产品越做越多,业务越铺越散,为了不错过任何一个可能的入口,宁可四面撒网、重复造轮子。
何谓“熵增”?就是把事情越做越多、越做越复杂,宁愿付出巨大的代价做无用功,也决不错过哪怕最微小的“机会”——产品熵增,大厂不但推出越来越多的AI产品,还致力于把老产品用AI重做一遍,即使这些产品彼此定位重叠、让用户困惑不已,也要全力维持下去。业务熵增,在同一家公司之内,各个业务线、事业部、事业群都在搞AI,至于具体怎么搞?多半是你搞你的、我搞我的,不知道谁听谁的。
我觉得这种“AI熵增”,在本质上很像“鸡娃”。大厂就像是被AI焦虑驱动的家长,什么都想做、什么都想要。现实告诉我们,“鸡娃”的大部分资源都被浪费了,其中不少甚至有副作用,那为什么还要“鸡”呢?因为这是一种缓解焦虑的方式,能说服自己“我在努力适应时代”,提供安心感。人在焦虑之下从来是只会做加法、不会做减法的!
但是,不管大厂怎么做,用户不会无脑、无条件地接受AI。对于AI的实用性和安全性的顾虑,从一开始就存在,至今仍挥之不去。前几天的央视315晚会,曝光了GEO(生成式引擎优化)黑产的乱象:虚构产品,几十块钱的软文,几天之内就能成为AI的“标准答案”,这种“信息投毒”正在不声不响地损害AI的公信力。这个问题背后,其实是更基础的大模型幻觉问题——基于Transformer架构的大模型自身是无法彻底摆脱幻觉的。AI产品的“熵增”,只会把问题搞得更复杂、让用户更加疑虑,就像“鸡娃”只会让娃不知所措。
如果我们把整个AI产业的图景作为一个整体看待,就会发现,“AI熵增”在每个环节都在制造代价。从用户角度,产品日益复杂导致了用户困惑和体验下降;从大厂自身角度,资源被分散到了许多互不关联、乃至互相打架的方向上。AI产业的集体焦虑,成为了一种自我实现的预言:越是焦虑,值得焦虑的新事物就越多!这种情况下,回归常识反而成了大厂最稀缺的一项能力。
在全球科技大厂当中,我注意到,百度是极少数业务聚焦、选择“熵减”的AI公司之一。简而言之,就是聚焦于真实价值,做自己擅长、对用户而言有用且可靠的事情:不再空谈模型参数,而是以应用为牵引,将百度大模型的能力深入嵌入搜索这一已被验证的超级入口——用产品激活技术,让重心回归用户刚需。
百度APP内嵌了文心助手,搜索与AI功能融合为一体。从用户体验讲,基本上“无痛迁移”,AI成为了早已习惯的使用行为的一部分。从信息可靠性的角度讲,搜索与AI之间交叉验证,得到更加准确透明的结果,尽可能地压制信息污染和大模型幻觉,更有利于客户获得真实信息。事实一再证明,当AI能够高效地接入高质量搜索时,“胡说八道”的概率会大幅度下降——习惯跟大模型聊天的人,恐怕都会认同这一点。
举个例子:女演员刘美含问AI“铸币坊的坊字该怎么读”,这个话题登上了社交媒体热搜。她向6家AI应用提问,答案莫衷一是,甚至同一个AI的答案前后都能矛盾!只有百度文心给出了与《新华词典》及语言学教授验证一致的正确答案“fáng”(二声)。这一方面是大模型本身的力量,说明训练的好;另一方面则是对海量信息交叉验证的结果。比方说,我现在在百度搜索任何一个汉字该怎么读,首先出现的肯定是百度汉语的内容,其次是百度百科——二者均基于权威参考资料,经历了严格的审核。这就大幅降低了AI出错的概率。
这就是“搜索+AI”的本质:通过高质量信息的交叉验证,增强人们的信息选择和思考能力,而不是代替人们思考。只要信息污染下降了,大模型“胡说八道”的概率也会跟着下降,而且用户也不会轻易上当了。
我是ChatGPT长达三年的忠实用户,不过最近几个月,我个人用的最多的英文AI应用变成了谷歌Gemini,原因很简单:整合谷歌的多语言搜索能力,快速交叉验证。我还会经常使用Grok,因为它能提供对X Platform (Twitter)信息的交叉验证。它们的思路与百度是吻合的,也就是把大模型能力与一个早已验证的超级入口结合起来,从而达到“1+1>2”的效果。以应用场景激活技术,莫过于此。
我还想强调一下:搜索与AI的改造是相互的,在搜索为AI提供高质量信息的同时,AI也在深刻影响着搜索产品的形态。例如,百度“百看”在搜索结果中以“头图+大模型生成答案”的形式,让用户得以高效地获得信息概要,再选择观看具体搜索内容。这一点与谷歌搜索的“AI总结”(AI Overview)功能异曲同工——截止2026年初,接近50%的谷歌搜索会激活AI总结,对于复杂的信息咨询的激活率高达99%,而大部分用户对此十分满意。
需要注意的是,“熵减”不代表只聚焦于一小块、忽视行业大趋势。很多人可能没有注意到,百度是在全球范围内拥抱OpenClaw最早、最积极的科技大厂之一:2026年1月,百度云率先推出了龙虾部署方案;2月14日,百度APP接入OpenClaw;3月12日,百度推出全球首款手机龙虾应用;3月17日,包括“云端虾”、“手机虾”、“安全虾”多款产品在内的百度“龙虾”全家桶亮相,并宣布上新多款Skills,其中百度搜索Skill下载量超4.5万次,成为全球下载量最大的搜索引擎官方Skill; 3月22日,首个国产企业级满血版OpenClaw——百度智能云DuMate(中文名:搭子)正式上线,全量开放。
就OpenClaw这个案例看,百度仍然是一家不仅跟得上时代、而且始终乐意走在时代前列的AI大厂,善于对行业趋势做出快速反应。百度拥抱OpenClaw的速度,不仅比国内许多大厂更早,甚至比OpenAI还要早!
上面说的,基本都是业务层面的事情。事实上,常识告诉我们:产品侧和业务侧的“熵减”,同时必然对应着组织侧和业务侧的“熵减”,二者本是一体两面的。前段时间,百度模型团队拆分成了两个,直接向百度创始人李彦宏汇报;百度文库和网盘团队整合,成立了PSIG(个人超级智能事业群组),也直接向李彦宏汇报。从全球的经验看,大厂一号位直接主抓AI研发及核心应用,是加快AI创新的有效方式。谷歌是一个最佳成功案例:在CEO及联合创始人布林共同抓AI的情况下,Gemini在短短两年内实现了飞跃。
附带说一句,坊间传闻,业内知名大模型厂商的一位技术大牛最近加入入职百度;此人的具体身份,市面上存在很多说法,总之是一位重量级人物(我们大概很快就会知道答案了)。这充分说明,百度在“组织熵减”的同时,抓核心技术人才可是一点也没手软。
业务和组织“熵减”背后,也不难看出百度极具前瞻性的“战略熵减”路径:第一是有取有舍、有保有压——因为任何人都不可能同时擅长所有的事情,资源只有集中才能形成压强。第二是认清什么是最重要的,才能在纷繁的诱惑中做出取舍,让力量聚焦于价值高地。而且,这种“战略熵减”不是权宜之计,而是一种长期主义聚焦:
- 早在2023-2024年,李彦宏就在业内最早呼吁大家“卷应用,而不要卷模型”。百度是国内最早系统布局智能体的,率先预判智能体将是最主流的AI应用方向。正是这种对应用价值的坚持,让百度在OpenClaw横空出世后能够最早响应,率先实现应用的部署落地。
- 也正是“战略熵减”,百度成为了全球范围内极少数拥有“芯、云、模、体”(昆仑芯+百度智能云+文心大模型+智能体)全栈AI技术积累的公司之一,构成了区别于其他大厂的核心差异化壁垒。只有以清醒的头脑,把资源用到刀刃上,才有可能达到这样的结果。
AI是一场长跑,任何人都有可能在任何时间节点领跑,但是只有基本功扎实、正确配置资源和节奏的人,才有可能跑到最后。正所谓“上兵伐谋”,百度没有像其他大厂那样,在AI浪潮中制造一个又一个“噱头”和“颠覆性口号”,但穿越周期再来审视,才发现百度的每一步选择都已经得到验证——
刚刚过去的2025年第四季度,AI新业务收入在百度一般性业务收入当中的占比,已经提升到了43%;这个过程几乎是不声不响、平稳而顺畅的完成的。文心5.0大模型发布,文心助手月活用户突破2亿,昆仑芯开启独立上市之路,萝卜快跑足迹覆盖全球26座城市……这些里程碑也是自然而然发生的,而不是巨额砸钱或补贴的结果。
这就是百度主动选择“熵减”的意义。我相信,过不了太久的时间,这种选择大概会被很多同行效仿,从而在一定程度上治愈无处不在的“AI焦虑症。”
热门跟贴