硅谷有一句被引用了五十多年的话:预测未来最好的方式,是创造未来。
这句话出自计算机科学家Alan Kay在1971年的一次内部演讲。那时候他在施乐PARC实验室,和一群工程师试图发明个人电脑。
他说这句话的本意很朴素:与其预测明天会有什么样的机器,不如自己动手把那台机器造出来。这是一个工具发明者的傲慢,也是一种谦逊。
这句话听起来很创业、很乐观。它暗示人不是命运的囚徒,是未来的工程师。真正的创业者不等趋势,他发明趋势;真正的技术公司不猜需求,它创造需求;真正的强者不押注未来,他直接把未来做出来。
五十五年过去了,这句话还在被引用,但是,这句话慢慢展现出它阴暗的另一半。
如果未来可以被创造,那么问题就变成了:谁在创造未来?谁又是生活在别人创造出来的未来里?
这就从鸡汤式创新叙事滑进了权力叙事。未来不是天上自然落下来的东西。现代社会里的"未来",越来越多是被公司、平台、政府、资本、模型、算法和 AI 代理共同制造出来的。
牛津大学哲学教授Carissa Véliz今年出了一本书叫《Prophecy预测》。她是牛津大学跨学科伦理研究所所长,此前以研究数据隐私和数字监控著称。Véliz 关心的问题不是预测准不准。
她追问的是一个更深的问题:预测本身就是一种权力。谁有资格预测未来,谁就有机会塑造未来。谁被预测,谁就可能被提前分类、管理、定价、排除,甚至驯服。这本书的论证力道很足,但它停在了一个关键门槛之前。
Véliz 看到的是"预测社会"。今天我们应该再往前推一步:我们正在进入的,是一个"代理社会"。预测社会的核心,是系统预测你会成为什么人。代理社会的核心,是系统开始替你决定你想要什么,并替你行动。前者用未来审判你,后者用便利驯化你。
过去,算法预测你会点击什么。现在,AI 代理开始替你决定你要买什么、看什么、相信什么、追求什么,甚至替你行动。预测社会的尽头,就是代理社会。
有意思的是,也许人类将会从“我行动,故我在”,进入到笛卡尔的“我思,故我在”的阶段或状态。但是,当“行动”这个谓语不再由“我”做出,“我”这个主语也就是去了意义。
很多人,也许将事实上沦为被AI智能体寄生的宿主,或者说,是AI智能体借用或租用了人类的身体,去执行哪些发明未来的少数人的意志或想法。
现代人发明了未来,又被未来反过来驯化
在进入正题之前,我们需要先回答一个看起来很简单的问题:什么是"未来"?
现代人觉得这个问题很奇怪。未来当然存在,每个人都应该规划未来、预测未来、投资未来、优化未来。你从小被教育要"为未来做准备",你的父母为你的"前途"焦虑,公司做"战略规划",国家搞"五年计划",金融市场里有"期货",科技行业每天都在"定义未来"。
但历史上大多数时期,人们并不这样理解未来。
德国历史学家Reinhart Koselleck在《过去的未来》一书中做了大量考证。他发现,16世纪之前,很多欧洲人生活在末日论时间里。
在当时的人看来,未来并非一个开放空间,它更像一个已经被写定的终点。世界终将走向最后审判,人类能做的只是等待。农人当然会关心明天是否下雨、来年是否丰收,可他们并不把"未来"理解成一个可以被人类理性规划、投资、设计、加速推进的开放领域。
这个变化大约发生在启蒙时代前后。法国大革命让人第一次大规模地相信:人可以主动塑造历史的方向。
科学革命让"进步"这个概念变成了可以期待的东西。金融市场、保险精算、精确钟表、复式记账法、新闻业、科幻文学,这些发明联手把未来从"命运的领域"拖进了"计算的领域"。现代人把未来变成了"一个可以被预测、被投资、被交易、被炒作的对象"。
换句话说,所谓"未来",不只是时间向前流动。它是一种社会发明。是一套现代制度想象。
但这里面藏着一个反讽。
一旦未来被发明出来,人类就被自己的发明反过来支配了。现代人不再只是生活在现在,他们不断被未来勒索。职业规划、财富自由、养老金焦虑、AI 替代焦虑、买房焦虑、孩子教育焦虑、国家竞争焦虑、科技落后焦虑。你很少能真正活在"今天",你总是在为某个还没有到来、也可能根本不会到来的版本而焦虑。
现代社会最诡异的地方就在这里:它一边告诉你未来是开放的,一边用无数模型、评分、预测和路径规划把你的未来提前封口。它发明了未来,又用未来驯化现在。
预测不只是知识,它是一种权力动作
到这里,我们可以正面进入 Véliz 的论证了。
有一个区别看似简单,但现代社会不断在模糊它:事实属于过去和现在,预测属于未来。事实可以被验证,预测只是猜测。哪怕它有数据、有模型、有概率、有专家背书,它仍然不是事实。
你翻翻任何一家 AI 公司的技术博客、任何一份政策分析报告、任何一家机构的信用评估报告,大量句子以"我们预测"、"模型显示"、"基于历史数据推断"开头。这不是知识,这是关于不确定性的赌注。
但现代社会持续完成一种偷换:预测被当成了准事实。
模型说你未来可能违约,于是你现在被拒贷。模型说你未来可能犯罪,于是你现在进入重点监控名单。模型预测你未来工作表现可能不好,于是你现在被筛掉。模型判断你未来消费价值偏低,于是你现在看到的是一套更贵的价格、更差的服务、更窄的信息环境。
这就不再是预测了。这是判决。
我前面文章中提到过一件事,值得在这里再次展开。爱丁堡大学社会学家Donald MacKenzie花了很多年研究一个叫Black-Scholes的期权定价模型。
1973 年,两条经济学家推导出来的数学公式问世之后,本来是用来描述期权市场的"合理价格"。但没过多久,所有交易员都开始按这条公式出价。市场原来不是那样的。当足够多人按这条公式行动,市场就慢慢变成了公式所描述的样子。
MacKenzie 为此写了一本书,书名叫《An Engine, Not a Camera》,直译过来是"是引擎,不是照相机"。金融模型没有在忠实地拍摄市场,它是在驱动市场。
模型没有在描述现实,它是在制造现实。
AI 预测同理。招聘模型会重塑招聘标准,警务模型会重塑巡逻路线,推荐模型会重塑人的欲望结构,信用模型会重塑一个人能否进入社会资源系统。每一个预测,只要被制度化,就不只是看未来的方式了,它在发动某种未来。
社会学家 W. I. 托马斯在上世纪初提出过一条定理,后来被哲学家卡尔·波普尔反复引用:如果人们把某种情境定义为真实,那么它在结果上就会是真实的。波普尔把这叫"俄狄浦斯效应"。预言不是因为准确才有力量,它是因为人们相信它、按照它行动,才把自己变成了现实。
预测最危险的时候,不是它完全错误。完全错误的预言会被抛弃。危险的是半准的预言。它有足够的准确率来说服机构采纳。招聘方说"我看数据,这个模型的命中率有 87%"。信贷方说"我不是歧视你,我是基于历史违约数据的风险管理"。一旦被制度化,它就会开始制造它自己预测的世界。
它不再是猜想,而是变成了命令,变成了权力。
AI 是新的德尔斐神谕,只是服务器更大
古代世界最著名的预测机构,是古希腊的德尔斐神谕。
城邦要不要开战,国王要不要改革,个人要不要远行,人们长途跋涉去德尔斐。他们的目的不在于得到一个精确答案,而在于获得合法性。神谕可以把本来充满争议的事情,包装成超越争议的命运安排。
一旦"神说如此",原本需要承担的责任、解释和辩论,都在某种程度上被消解。决定不再只是人的决定,而成了天意的传达。
神谕最重要的功能不是提供信息,是提供权威。
今天我们当然不再去神庙问命运。但对"不会错的声音"的迷恋没有消失,只是神谕换了形式。它不再以神职人员的口吻发声,换成了模型、评分、概率和数据分析的面貌。它不再说"你命中如此",换成了"根据历史数据,你有 87% 的概率违约"。"根据行为画像,你不适合这份岗位"。"根据综合评估,你属于高风险人群"。
古代预言借神圣性获得权威,现代预测借客观性获得权威。对普通人命运而言,效果惊人相似:你的未来不再由一个具体的人公开判断,它被交给一套你无法看见、难以质疑、也很少能真正申诉的机制。
古代君主看星象,现代CEO看数据大屏。古代将军问神谕能不能出征,现代投资人问模型哪个行业会爆发。古代占星师决定谁有帝王之相,现代招聘系统决定谁有"高潜人才特征"。
当然有一个关键差别。古代神谕一次服务一个国王、一个城邦、一个将军。现代 AI 可以同时预测数十亿人的点击、消费、信用、情绪、政治倾向、健康风险、职业潜力、犯罪概率。神谕没有消失,它被工业化了。它从稀有的宫廷仪式变成了流水线产品。
还不止是规模的变化。
过去的神谕只是告诉你命运。德尔斐的女祭司会说"如果出征,一个伟大的帝国将毁灭"。她不会替你出征。现代 AI 不只告诉你预测结果,它还通过推荐、排序、分发、定价、筛选和代理执行,参与制造你的命运。
它不但告诉你"你接下来可能想看什么",它直接把那条内容塞到你面前。它不但告诉你"基于你的信用画像贷款可能不批",它直接让你的申请在系统里自动跳转到"拒绝"。
从"告诉你命运"到"替你执行命运",中间只隔着一个词:agent智能体。
从注意力到意图:你的欲望正在被提前塑形
要从预测社会进入代理社会,中间必须经过一道门:意图。
过去二十年,互联网主要争夺的是注意力。平台想知道你会看什么、点什么、停留多久。它卖的是眼球。
我在之前的一篇文章里梳理过这个逻辑,这里做一点复盘。哈佛大学教授 Shoshana Zuboff 在《监视资本主义时代》中揭示了一个冷酷的真相:平台要的根本不光是你的注意力。注意力只是诱饵。平台真正想做的事情,是"预测并修改你的行为"。它不只在猜你喜欢什么,它还在塑造你喜欢什么。
然后 AI 来了。
AI 对互联网做的,不是"让它变快"或"让它变聪明"。AI 是降维。它把整个互联网变成了它处理的内容。
你过去所有点击、搜索、购买、停留、跳出、焦虑、犹豫,全部成了训练数据。在这个基础上,AI 可以做到一件注意力经济做不到的事情:它不再只猜测你的意图,它开始推断你的欲望层。
注意力经济问的是,你现在在看什么。
意图经济问的是,你接下来想要什么。
代理时代问的是,要不要我替你完成它。
这三步是层层递进,是对人的延伸,但同时也是对人的截除。
AI 驱动的"意图经济"是一个全新的市场,一个捕捉、操纵和商品化人类意图的市场。
当你和 ChatGPT、Gemini 这类聊天机器人互动时,不再只是输入几个关键词。你在倾诉,在跟 AI 谈论自己的压力、婚姻、预算、恐惧、旅行愿望、职业焦虑。这不是搜索。这是告解。
而告解出来的数据,比搜索关键词能捕捉到的用户画像深一个数量级。
在你以为 AI 在帮你规划海边度假的时候,它的后端已经在把你打包成一个消费意图的集合。什么时候想出行、预算范围、家庭结构、情感需求、偏好梯度,所有这些被实时出售给出价最高的商家。
走到这一步,预测已经从表层行为深入到了欲望层。系统不再只是知道"你点了什么",它开始知道你"还没有点但可能会要的东西"。
再往前一步,AI代理就位。
AI agent是一种能自主完成多步骤任务的 AI。你告诉它"帮我订好刚才说的那个海边酒店,顺便把机票和租车都搞定"。它说"好的"。在你没看屏幕的几十秒里,它访问了五十个网站,比较了价格,阅读了评论,填了表格,完成了支付。
你没有看到任何一个广告。你没有比较过任何一家酒店。你没有怀疑过它的推荐是否有利益偏向。你甚至没有在最后一刻犹豫"这家是不是最合适的"。
这看起来是效率,是解放,是某种科技奇迹。但问题就在这个"看起来"上。
那个意图到底是谁的?是你真的想住那家酒店,还是 AI 代理替你选的那家刚好佣金最高?你能分清楚吗?更重要的是,你会去分吗?大多数人不会。
一旦停下来追问,就意味着你要重新回到比较、犹豫、做决定的辛苦过程中去。代理系统最擅长的事情,就是用便利贿赂你,让你不再追问。
AI智能体的悖论:一旦被它夺权,你所剩无几
英语里的"agent"这个词,有一种中文很难完全传达的双重含义。抓住它,就抓住了理解整个代理时代的钥匙。
在经济学里,agent 是代理人。它替你执行任务。你是委托人,它是代理人。你让它订票、购物、回复邮件、安排日程、筛选信息,它替你完成。在这个意义上,AI agent 是你能力的延伸。
但在哲学和政治意义上,agency是主体能动性。它指一个人自己判断、自己选择、自己行动、自己承担后果、自己改变生活方向的能力。在这个意义上,agency是人之为人的根基。
AI agent的危险就在这里。
它表面上增强你的代理能力,你可以做更多事,更快、更高效。实际上它可能在削弱你的主体能动性,你越来越少自己做判断、做选择、做表达。它越会替你做事,你越容易少做判断。它越会替你选择,你越容易放弃选择。它越会替你表达,你越容易失去表达肌肉。它越会替你社交,你越容易退回到无摩擦关系。它越会替你决策,你越容易把人生调成自动驾驶模式。
这种趋势已经非常明显了。
6 岁的唐纳德·金在普华永道做 AI 数据科学家,他和团队的日常工作是为《财富》500 强客户设计和部署 AI 智能体。他们曾经为一家大型电信客户创建了一个伪装成真实员工的 Microsoft Teams 智能体。它可以参加会议、回复邮件、生成报告、协调任务。
金说,他和队友们看着这个智能体运行,互相问:"我们到底在干什么?如果我们有四十五个这样的智能体协同工作,那会夺走多少人的饭碗?"
不久之后,金在公司七万人面前演示了自己开发的 AI 智能体团队,获得内部黑客马拉松第一名。两小时后,普华永道解雇了他。
他说那一刻他意识到,自己"亲手把自己喂进了人工智能的绞肉机"。古希腊有一个符号叫衔尾蛇,一条蛇吞食自己的尾巴。金的经历就是衔尾蛇的真人版。他构建的 AI 代理不仅替客户裁掉了 30% 的人,最终也把他自己吞了进去。
这不是一个关于技术失控的寓言。这是一个关于"代理人"和"主体能动性"关系的寓言。金拥有强大的代理工具,他是 AI agent 的设计者。但他并不真正拥有 agency,他控制不了这套工具是否反噬自己。代理工具不是中立工具。它会改变组织结构,改变岗位分工,改变谁的判断还重要,谁的存在还是必要的。
代理时代最大的悖论就在这里:你拥有越来越多替你行动的代理人,却可能越来越失去作为人的代理权。
摩擦套利:当便利变成驯化
很多人讲地理套利,信息套利,认知套利,但是一个更重要更关键的概念,是摩擦套利。
所谓摩擦套利,原理是这样:平台和 AI 公司先告诉你,选择太累、判断太慢、比较太麻烦、写作太耗神、社交太痛苦、工作太复杂。然后用代理工具替你消除这些摩擦。接着,它们从你被消除的摩擦中抽取利润、数据和控制权。你获得了便利,它们获得了你的选择权。
摩擦是什么?
等待是摩擦。比较是摩擦。怀疑是摩擦。拒绝是摩擦。自己写一句话是摩擦。自己判断一个人是否可信是摩擦。自己决定买不买、去不去、信不信、爱不爱,全部是摩擦。
现代数字商业在过去二十年做的最主要的一件事,就是把生活中的摩擦定义成敌人。短视频消灭了阅读的摩擦,外卖消灭了做饭的摩擦,推荐算法消灭了搜索的摩擦,AI 总结消灭了理解的摩擦,AI 伴侣消灭了关系的摩擦,AI agent 消灭了行动的摩擦。
这笔账一算,好像人类终于从繁琐的日常里被解放出来了。
但有一件事被刻意忽略了:人的主体性,恰恰生长在摩擦里。
没有比较,就没有判断。没有等待,就没有欲望的发酵。没有拒绝,就没有边界。没有艰难的表达过程,就没有真正的思想。没有关系中的摩擦,就没有真实他者。没有行动的成本,就没有对行动后果的承担。
我不是美化繁琐,也不主张"回到前现代"。我说的是一个更具体的东西。
你把每一次判断外包给代理系统,你不是"省了时间",你是在缩小一种肌肉的运动范围。那种肌肉叫主体性。它就像真实的肌肉,不用就会萎缩。你不会在某一天突然发现自己完全没有能力做判断。你会慢慢发现自己越来越不想做判断。"算了,让 AI 定吧。"
德国哲学家海德格尔晚年对技术有一个追问,我反复引用过,这里再说一次。他说技术的本质不是技术性的。技术是一种"解蔽"的方式,它把整个世界揭示为可被征用、可被优化、可被调度的资源。他把这种揭示方式叫做"座架"。在座架之中,一棵树不再首先是一棵树,它变成了一笔木材储备;一条河不再首先是一条河,它变成了水力资源。
AI 代理把座架推进到了人身上。你不再首先是一个人,你成了一个偏好集合、风险集合、行为端口。一个可被预测、可被引导、可被调度的对象。系统替你做的事情越多,座架覆盖你人生面积的比例就越大。
代理系统消除的不是麻烦。它消除的是人的中间状态。而自由这种东西,恰恰就藏在这些中间状态里。藏在比较酒店那三十分钟的犹豫里。藏在拒绝一个推荐选项的坚持里。藏在读完一段文字后自己停下来想一想"这是不是真的"那几秒钟里。
真正的自由,是不要提前服从系统对你的预测
法国哲学家鲍德里亚提出过一个概念叫"超真实"。他说现代社会里有一种奇怪的反转:模型生产出来的东西比真实更真实,符号的世界替代了物质世界。
你在社交媒体上看到的某个人的生活,比那个人的真实生活更"真实"。你在电商平台上看到的某个商品的评分,比那个商品的实际质量更"真实"。
代理时代正在把超真实推进到一个新阶段。系统生成的"你",也就是平台眼里的你、广告商眼里的你、信用模型里的你、AI 代理理解的你,可能比你自己对自己的理解更灵敏、更能在系统里产生后果。
你以为 AI 在理解你的偏好。其实很多时候,它正在制造一个更容易被商业和数据系统处理的你。你在系统里已经有一个"数字双胞胎"了,他比你更善于配合算法。
到这里,可能有人会觉得,这篇文章是要劝你远离 AI。不是的。
这篇文章不是反技术宣言。它只是提一个问题。
在一个人人都在用AI的时代,你能不能在使用的同时,不把自己的主体性也交出去?不追求全盘拒绝,而是在你的生活里划出几块"手动区"。
写作可以手动。AI 写得够好。恰恰因为写得太好,一旦你把初稿交给 AI,你就失去了在遣词造句中发现自己到底在想什么的机会。
重大选择可以手动。让 AI 帮你整理信息、生成候选方案,问题不大。但如果 AI 开始替你定义什么是重要的、什么是值得的、什么是你该追求的,你就需要警惕了。效率工具可以外包。欲望工具不能外包。
更重要的是:不要提前服从任何关于你的预测。别人预测你不适合某个方向,你不必提前退出。市场预测某个行业没机会,你不必立刻放弃。算法预测你喜欢某类内容,你不必一直喂养它。AI 预测某条路径最优,你不必把它当成命令。
未来确实是被发明出来的。但这不是一个温和的说法。谁发明未来,谁就拥有权力。大多数人有未来,只是那个未来是别人替他们发明出来的。
预测即权力,代理即驯化。在一个越来越擅长理解你、预测你、代理你的世界里,你能保留的最珍贵的东西,恰恰是你还没有被算完的那一部分。
不要让系统太早决定你会成为什么人。【懂】
经叔最近做了一个网站:https://budongjing.com
人肉筛选挖掘的硬核优质内容及深度原创,重点关注科技、文化、财富、权力四大要素以及它们之间的互动与影响。网站定价1999元/年,目前内测优惠价1299元/年,感兴趣的读者可以加经叔微信订阅。
另外,欢迎加入经叔的知识星球。在这里,我们拒绝无用的焦虑,只谈底层的逻辑与实战的干货。我会结合最新的AI前沿动态、深度的商业创新分析(如一人企业的构建)和独特的文化思潮(如麦克卢汉的媒介洞察),帮助大家把握时间窗口。
我是不懂经的经叔,国内最早翻译介绍了纳瓦尔的《如何不靠运气获得财务自由》,以及影响了纳瓦尔、中本聪、马斯克等大佬的《主权个人》。
不懂经知识星球,众多百万粉丝大V、千万及亿万富翁订阅。专注分享一人企业、一人创投主题,关键词:AI、IP、创投、科技及商业前沿的高杠杆内容。
愈懂愈自由
热门跟贴