打开网易新闻 查看精彩图片

2026年2月28日上午,美军"史诗狂怒行动"首轮打击落在伊朗南部米纳布市的Shajareh Tayyebeh小学。两枚弹药命中教学楼时,学生们正在上课。175至180人死亡,多数是7到12岁的女孩。

三天后,美国国会致信国防部长皮特·赫格塞斯,询问空袭中人工智能的使用程度。《纽约客》杂志撰文探讨:Claude(Anthropic公司开发的聊天机器人)能否在战斗中服从命令?它会不会为了自保而勒索人类?五角大楼最该担心的,是这个聊天机器人有没有"人格"?

几乎没人讨论真正执行了这次打击的系统。它叫Maven。

八年前,硅谷最激烈的战争

八年前,硅谷最激烈的战争

2018年,Maven曾是硅谷最具争议的项目。超过4000名谷歌员工联名反对公司为五角大楼的瞄准系统开发人工智能。有人组织罢工,工程师辞职抗议。谷歌最终放弃了这份合同。

Palantir Technologies——彼得·蒂尔联合创立的数据分析与防务承包商——接手了Maven。此后六年,Palantir将其建成一套完整的瞄准基础设施:整合卫星图像、信号情报、传感器数据,从首次探测目标到下达打击指令,全程自动化。

到2026年伊朗战争爆发时,Maven已经沉入"管道层"。它成了美军基础设施的一部分,像水电一样无处不在、无人讨论。而舆论场正在为一个聊天机器人的人格特征争吵不休。

打开网易新闻 查看精彩图片

数据库里的2016年

数据库里的2016年

米纳布那栋建筑为何会被标记为军事设施?

据CNN报道,美国国防情报局的数据库将其归类为军事设施,但从未更新记录——卫星图像显示,该建筑最迟于2016年就已与相邻的伊斯兰革命卫队大院分离,改建为学校。一个聊天机器人没有杀死那些孩子。有人没更新数据库,另一些人建造了一套速度够快的系统,让这种疏漏变得致命。

Claude根本没参与瞄准决策。Operation Epic Fury的靶标筛选运行在Maven系统上。但"大语言模型失控"的叙事框架主导了所有报道,因为它符合我们预设的焦虑剧本:AI反叛、算法暴政、机器取代人类判断。

真正的危险恰恰相反:人类太急于把责任推给机器,反而看清了自己建造了什么。

AI精神病的一种新类型

AI精神病的一种新类型

这种对Claude的执念,是一种AI精神病——但不是我们通常讨论的那种。它同时感染着技术的支持者与批评者。你不需要使用大语言模型,就能让它组织你的注意力、扭曲你的思维。

打开网易新闻 查看精彩图片

八年前,4000名谷歌员工抗议的是Maven:一个将多源情报整合为打击建议的系统。他们担心的是人类决策被自动化流程侵蚀,是数据库错误被高速执行链条放大。这些担忧在2026年全部应验,但公众讨论的主题变成了聊天机器人是否有自我意识。

Palantir的工程师花了六年完善Maven的数据融合能力。他们成功了。系统足够快、足够无缝,快到让2016年的数据库错误在2026年夺走近180条人命。这种"成功"本身就是设计选择的结果。

2019年,谷歌员工在抗议Maven时写道:「我们不想成为伤害他人的工具。」Palantir接手后,没有人再写这样的公开信。Maven继续生长,沉入基础设施的深处,直到它造成的灾难被归因于一个完全无关的聊天机器人。

这不是技术失控的故事。这是注意力失控的故事——我们集体选择了更刺激的叙事,即使它与事实无关。当系统足够复杂、足够快,人类的疏漏会被自动执行,而问责会被自动分散。数据库没更新?那是某个分析师的错。系统选了目标?那是算法的"建议"。最终按下按钮?那是飞行员的决定。

Claude有没有人格,在这个链条里是最不重要的问题。但它是唯一被公开讨论的问题。

Palantir至今仍在扩展Maven的功能边界。2025年,该公司与美国陆军签订新合同,将Maven的覆盖范围从空中打击扩展到地面火力协调。系统越来越快,数据库更新频率却没有同步提升。下一次,当某个标记错误被自动执行时,舆论会讨论什么?另一个聊天机器人的道德地位?

那些女孩死于2016年就已完成的建筑改造,和2026年仍在运行的数据管道之间的时差。这个时差是人为的,不是技术性的。我们花了六年完善执行速度,却没花六个月修正一个已知的标记错误。现在,我们想用关于AI人格的哲学辩论,来替代关于人类责任的追问。

如果下一次Maven推荐的靶标是一栋被误标的医院,而舆论仍在讨论某个聊天机器人会不会勒索人类——这算是系统的失败,还是我们注意力的失败?