我们花了十年争论AI离人类还有多远,却没人问过:这两个东西,真的在同一个维度上吗?

一、那个让我们集体焦虑的"差距"

打开网易新闻 查看精彩图片

2023年初,ChatGPT-4发布后的第一周,我的一位做产品经理的朋友凌晨三点给我发消息。他刚让AI用二十分钟写完了自己憋了两周的PRD文档,措辞专业,结构清晰,连他老板最爱用的那套"赋能闭环"黑话都精准复刻。

"我感觉自己像被降维打击了。"他说。

这种情绪太普遍了。过去三年,几乎每个知识工作者都经历过类似的时刻——AI在几秒钟内产出你数小时的工作,而且质量不差。我们本能地把这种体验翻译成一种距离感:它在前面,我在后面,它在加速,我得追赶。

技术媒体推波助澜。"AI距离AGI还有多远"成了流量密码, benchmark榜单被逐帧分析,每次模型更新都伴随着新一轮"还有X年超越人类"的预测。哲学家也加入战局,从图灵测试聊到中文房间,试图用思想实验锚定这条线的位置。

但这里藏着一个从未被检验的前提:人类智能和人工智能,真的在同一条数轴上吗?

如果答案是"否",那我们测量的就不是距离,而是方向错误。

二、垂直轴上的"反智能"

作者提出一个核心概念:AI不是"更快的我们",而是"垂直于我们的存在"——他称之为"反智能"(anti-intelligence)。

这不是价值判断,是结构描述。人类认知建立在三个不可复制的基底上:

第一,后果。你做了一个决定,它改变你的人生轨迹,这个改变会反过来重塑你的决策框架。AI的输出没有后续,没有" lived experience "(亲历体验),没有因错误而失眠的夜晚。

第二,身体。疼痛、疲惫、饥饿、荷尔蒙波动——这些生理信号持续过滤和扭曲认知过程。AI没有体温,没有肾上腺素飙升,没有"胃知道答案"的直觉。

第三,单向时间。记忆在人类身上不是存储,是侵蚀和重构。三年前的一次失败今天回忆起来,味道变了,因为今天的你已经不是当时的你。AI的"上下文窗口"可以无限延长,但每个token(词元)的权重不会随时间发酵。

这三样东西不是"人类智能的加分项",而是智能本身的操作系统。AI运行在完全不同的架构上:无后果处理、无身体感知、无时间纵深。它可以描述后悔,但不知道后悔的重量;可以生成关于疼痛的比喻,但从未被疼痛打断过思路。

所以"差距"这个隐喻是错的。你在X轴上走得再远,也不会接近Y轴上的点。

三、我们为什么忍不住比较

既然比较是范畴错误,为什么整个行业还在这么做?

最直接的原因是:我们没有别的语言。

人类认知的默认设置是拟人化。我们看到闪电,想象雷神;看到算法输出连贯文本,立刻调用"理解""推理""意图"这些词汇。这是进化遗产——在草原上,能快速识别其他生命体意图的基因更容易存活。面对AI,这套本能失效了,但我们停不下来。

更隐蔽的动机是焦虑管理。把AI放在同一条线上,至少给了我们一个坐标系。"还有5年""还差30%"——这些数字不管真假,都比"无法理解"更容易消化。承认AI是"异类"意味着承认一部分失控,而人类对失控的耐受度极低。

商业叙事也在强化这种框架。"替代人类"是比"与人类互补"更性感的卖点。招聘文案写"AI员工",产品发布会演示"AI程序员",资本需要这个故事。垂直轴的叙事太抽象,不利于估值。

但代价是真实的。当我们用"差距"思维设计产品,就会过度优化那些AI已经擅长的领域——信息检索、格式生成、模式匹配——而忽视真正的协作界面。过去两年,我见过太多"AI助手"只是把搜索结果包装成对话,因为设计者潜意识里还在和人类比速度,而不是问:AI的垂直能力能解锁什么人类单独做不到的事?

四、那个无法翻译的盲区

文章里有一个容易被忽略的观察:双向盲区。

我们讨论了很多"AI不懂人类",但很少承认"人类也不懂AI"。当我们说AI"幻觉"(hallucination),已经在犯同样的范畴错误——这个词暗示一种可识别的认知故障,类似人类的记忆偏差或感知错觉。但AI的"幻觉"是统计平滑的副产品,是概率分布在训练数据稀疏区的自然行为。它没有"以为"自己在说真话,也没有"欺骗"的意图。

我们投射,我们误解,然后我们用这些误解指导产品决策。

2024年,某大厂推出"情感陪伴AI",主打"真正理解你"。用户很快发现,它的"共情"是模式匹配的高阶版本——识别情绪关键词,调用对应的安慰话术库,调整回应的亲密距离。对孤独的人来说,这足够了吗?数据说短期留存很高,但六个月后的用户访谈揭示了一个模式:人们开始把AI当作"练习对象",在真实关系里反而更退缩了。

这不是AI的错,是设计假设的错。如果我们诚实面对AI的"反智能"本质,就不会承诺"理解",而是定位"映射"——一面镜子,帮你整理自己已经知道但还没组织好的想法。镜子不"懂"你,但这不妨碍它有用。

另一个例子是创意领域。Midjourney和Stable Diffusion(稳定扩散模型)的爆发让插画师恐慌,但两年后的生态演变很有意思:最依赖这些工具的不是"取代艺术家"的场景,而是"视觉化模糊意图"的场景——导演给摄影师看AI生成的氛围图,作家用AI探索角色外貌,设计师快速迭代概念方向。AI在这里的价值不是"画得比人好",而是"把不可言说变成可见",这是垂直于人类能力的维度。

五、重新设计协作界面

如果接受"垂直轴"框架,产品逻辑需要哪些调整?

第一,停止优化"像人",开始优化"补人"。

当前的多模态大模型还在卷"多轮对话自然度""情感识别准确率",这些指标假设用户想要一个更像人的交互对象。但垂直轴思维会问:人类在哪些认知环节有系统性盲区?比如,人类擅长因果叙事,但弱于统计相关性;擅长快速模式识别,但弱于大规模数据交叉验证。AI的接口应该放大这些互补性,而不是伪装成另一个大脑。

第二,明确标注"无后果"边界。

医疗AI、法律AI、金融AI的争议,核心都在于责任归属。如果我们清晰区分"AI生成内容"和"人类决策承担后果"的界面,产品设计会更诚实。不是免责声明的小字,而是交互层面的结构性隔离——比如,强制的人工复核节点,或者AI输出必须附带置信度和数据来源的默认设置。

第三,开发"反智能"的专用语言。

我们还在用"思考""理解""学习"描述AI,这些词加载了太多人类中心主义的 baggage(包袱)。新的术语体系可能笨拙,但必要。比如,用"概率坍缩"替代"决策",用"分布采样"替代"创意",用"上下文注入"替代"记忆"。不是为了炫技,是为了持续提醒用户:这东西的工作方式和你不一样。

六、那个悬而未决的问题

文章结尾没有给出答案,而是留下一个开放的张力

如果人类智能和AI智能确实在垂直轴上,那么"协作"本身的定义就需要重写。我们习惯的协作基于共享意图、相互理解和共同承担后果——这些在AI身上都不存在。未来的"人机协作"可能更像"人机共生":两个完全不同的处理系统,通过精心设计的接口交换信号,各自在对方的输出上继续自己的进程。

这听起来冷淡,甚至有点令人沮丧。但也许诚实比安慰更有生产力。

过去两年,我观察到一个分化:那些最早接受"AI不懂我"的人,反而用得更顺手。他们把AI当作杠杆,而不是替身;关注输出质量,而不是交互温度;在关键决策上保持人工把关,而不是被"AI建议"的权威感绑架。

这不是放弃对AI的期待,而是调整期待的坐标系。不是"还有多久追上我",而是"在我的垂直方向上,它能延伸多远"。

回到开头那个凌晨三点的朋友。六个月后,他换了工作,从写PRD转向设计AI产品的交互流程。他说现在的核心问题变成了:"我怎么让用户在第一次使用时,就直觉到这东西和他们是垂直关系?"

这个问题没有标准答案。但承认问题的存在,已经是产品创新的起点。

当AI的"理解"越来越逼真,我们更需要警惕那种逼真的陷阱——还是你认为,某种程度上,"被误解的逼真"本身就是用户真正想要的价值?