斯坦福AI指数报告刚出炉,一组数字让硅谷坐不住了:56%的AI专家相信未来20年技术会带来积极影响,美国公众里只有10%的人"兴奋多于担忧"。这不是观点分歧,是平行宇宙。
更扎心的是代际反转。盖洛普最新民调显示,Z世代——最该拥抱新技术的群体——对AI的愤怒情绪正在飙升。讽刺的是,这代人里大约一半每天都在用AI工具。
用归用,骂归骂。这种"身体诚实"背后,是科技圈和真实世界的连接正在断裂。
AGI狂想 vs 电费账单
AI领袖们这几年忙着画一张大饼:通用人工智能(AGI),一种能完成任何人类任务、自主思考的超级智能。OpenAI、Anthropic的实验室里,这是最高优先级议程。
但普通人脑子里转的是另一套账:我的工作还在吗?数据中心烧电会不会让我电费涨三成?
一位AI研究者在社交平台上的吐槽很直白:「OpenAI和Anthropic的掌门人自己都说了'如果我们什么都不做,很多人会遭殃',你觉得公众情绪能好到哪去?」
另一位从业者跟帖补刀:「很多AI领袖跟正常人脱节了。他们以为大家怕的是《终结者》里的天网,确实有这种人,但更多人担心的是下个月的工资单和水电费。」
这种错位不是信息差,是生存坐标的根本不同。
Altman家门口的评论区
裂痕在最近一次事件中彻底暴露。OpenAI CEO Sam Altman的住所遭遇袭击后,Instagram评论区出现了大量支持性言论——不是支持Altman,是支持袭击行为。
AI圈内人的反应是"震惊"。一位从业者在X上转发截图:「看到这条评论区我才意识到情况有多糟。」
但圈外人看来,这种情绪早有预兆。评论区里的愤怒,和2024年联合健康保险CEO被枪杀后的网络反应、今年金佰利仓库被工人纵火事件下的留言,共享同一种语法:对系统性不公的报复性快感。有人甚至直接呼吁"需要一场革命"。
科技精英的盲区在于,他们以为公众反对的是技术本身。实际上,人们反对的是技术红利分配的方式——以及分配者的傲慢。
数据里的情绪地图
斯坦福报告汇总了多源数据,勾勒出一张清晰的公众情绪地形图。
皮尤研究中心上月发布的调查显示,美国人里"更兴奋而非担忧"AI日常渗透的比例,死死卡在10%。这不是某次调查的波动,是持续三年的趋势固化。
担忧的具体指向也很务实:就业替代、医疗决策被算法接管、经济结构的剧烈震荡。这些不是科幻场景,是正在发生的职业消亡、保险拒赔、零工经济扩张。
专家群体的乐观建立在技术曲线之上。他们看到模型能力的指数级提升,看到资本涌入的速度,看到论文发表量的爆炸。公众的情绪锚点则是另一组曲线:中产萎缩的速度、医保拒付的比例、电费账单的涨幅。
两组数据都真实,但互不兼容。
GenZ的愤怒悖论
最让行业困惑的可能是Z世代的态度反转。作为数字原住民,这代人本应是AI-native的第一批原住民。盖洛普的数据却显示,他们对AI的"希望感"正在消退,"愤怒感"持续累积。
悖论背后有合理的解释路径。Z世代是AI工具最高频的使用者——写邮件、做设计、练口语、生成代码——也是最早感受到"能力贬值"的群体。当AI能写出比你更流畅的求职信,画出比你更专业的作品集,这种工具化的自我替代体验,比任何外部警告都更具腐蚀性。
他们比前辈更懂AI能做什么,也因此更清楚自己可能被取代的具体方式。这不是卢德主义,是近距离观察后的理性判断。
技术精英的共情赤字
斯坦福报告没有给出解决方案,但它指出了一个被忽视的诊断:AI行业的沟通策略正在失效。
领袖们习惯于用"风险框架"对话——讨论对齐问题、生存性风险、长期安全——这些术语在学术会议和董事会里流通顺畅,在公众耳朵里却是白噪音。当Altman在国会山谈论"可能毁灭人类的技术"时,普通人听到的是精英阶层的特权焦虑:他们担心AI太强大,我们担心AI让我们更穷。
这种沟通断裂有历史先例。核能、转基因、自动化——每一次技术浪潮都经历过类似的信任崩塌。但AI的特殊性在于速度:从ChatGPT引爆公众意识到全球监管讨论,只花了18个月。行业没有足够的时间建立社会契约,就已经被推到了对立面。
更深层的问题在于权力结构。AI公司的决策——开源还是封闭、快速迭代还是审慎部署、利润优先还是安全优先——影响数十亿人,但问责机制几乎不存在。公众的情绪反弹,某种程度上是对这种"无代表却征税"的技术统治的本能抵抗。
裂缝会愈合吗
报告发布的时间点很微妙。美国正在经历一轮AI投资狂热与监管真空的叠加期,欧盟的AI法案刚刚生效但执行效果存疑,中国的模型竞争进入白热化阶段。全球AI治理的碎片化,让"公众参与"更像一种修辞而非实践。
一些从业者开始尝试修补。Anthropic最近加大了对"AI与经济影响"研究的资助,OpenAI设立了专门的外部咨询委员会。但这些动作的规模,和公众情绪的强度相比,像是用创可贴处理骨折。
更根本的障碍是激励机制。AI公司的估值建立在"改变一切"的叙事上,这种叙事天然排斥渐进、包容、有摩擦的部署路径。直到资本市场重新定价"社会许可"的价值,或者监管强制要求,精英与公众的对话很难对等。
斯坦福报告的最后一页引用了多项未完成的调查,包括一项追踪公众对"AI是否应该参与医疗诊断"态度变化的长期研究。数据截止到2024年底,趋势线仍在向下。
如果AI领袖们继续把公众焦虑归结为"误解"或"科幻恐惧",而不是承认这是关于资源分配和政治代表性的正当质疑——下一个被评论区"震惊"的,会是谁?
热门跟贴