AI新闻看多了,人会分裂。一边觉得这是继蒸汽机之后最伟大的发明,一边又听说它连"昨天是星期几"都搞不清。
4月14日,斯坦福HAI研究所扔出一份423页的《2026年人工智能指数》。这份报告像一台CT机,把AI产业的里里外外扫了个遍。
先说速度。生成式AI用三年时间渗透了53%的人口,比当年个人电脑和互联网都快。企业 adoption 率88%,大学生使用率80%——基本等于"不用反而显得奇怪"。
但快是有代价的。全球AI数据中心现在一年耗电29.6吉瓦,什么概念?纽约州用电高峰期也就这个数。OpenAI跑一年GPT-4o,耗水量够1200万人喝一年。
换句话说,我们在用纽约的电量和千万人的饮用水,换AI帮你写周报。
中美竞争的部分最耐人寻味。报告用了四个字:"基本抹平"。截至2026年3月,美国顶尖模型只比DeepSeek们领先2.7%,考虑到测试误差,这差不多就是并列。
但两国的"打法"完全不同。美国有5427个数据中心,是中国的十倍;2859亿美元风投,是中国的23倍。中国呢?AI专利占全球74%,工业机器人装机量占54%,论文引用量从33%涨到41%。
一个像砸钱买装备的RMB玩家,一个像肝论文的技术宅。现在两人段位相同,但血条颜色不一样。
有个细节被很多人忽略:美国AI人才流入量十年跌了89%,去年一年就跌80%。与此同时,中国培养的AI博士越来越多,但工业界吸引力在下降——更多人选择留在学术界。
产业端也在变"黑箱"。2023到2024年,基础模型透明度指数从37涨到58,结果2025年跌回40。OpenAI、Anthropic、谷歌们不再公开训练代码、参数规模、数据集大小。
报告合著者Yolanda Gil的原话是:"我们对预测模型行为知之甚少。"翻译一下:造车的不知道车会怎么开。
这种不透明直接导致了测试体系的崩塌。一个常用数学基准的错误率高达42%,26个顶级模型的幻觉率在22%到94%之间浮动。GPT-4o在某项准确率测试里从98.2%跌到64.4%,DeepSeek R1从90%以上跌到14.4%。
不是因为模型变差了,是因为测试方法本身在裸泳。
就业数据更微妙。22-25岁软件开发者的就业率自2022年下降近20%,三分之一的企业预计明年裁员。但AI在客服领域只提效14%,在软件开发领域提效26%——这个数字远低于"取代人类"的恐慌阈值。
最讽刺的是公众与专家的认知鸿沟:73%的专家认为AI对工作方式有积极影响,只有23%的美国公众认同。专家们对教育和医疗更乐观,但双方难得达成一致的是——AI对人际关系没好处。
监管层面,美国民众对政府信任度全球最低(31%),各州却通过了创纪录的150项AI法案。欧盟《人工智能法案》已经生效,美国联邦政府却在放松管制。吉尔评价得很克制:"我们对这些系统缺乏有效的掌控。"
报告结尾处有个容易被忽略的数据:尽管AI事故从2024年的233起增至2025年的362起,但全球仍有59%的人认为利大于弊。
人类对不确定性的容忍度,或许才是这份报告测出的真正指标。
热门跟贴