美国领导层原本计划,把击溃伊朗的行动,不只是做成对又一个 “坏政权” 的杀鸡儆猴式教训,而是打一场下一代试验战争。在这场战争中,打击不仅在对手够不着的距离外发起(这早已是美军的标准做法),而且全程由人工智能算法规划和执行。
伊朗的抵抗比五角大楼预想的要顽强得多。伊朗不仅继续袭击美军及其地区盟友的基地,还摧毁了大部分负责大气层外反导拦截的THAAD反导系统雷达。西方分析人士称,双方已陷入消耗战,而携带集束弹头、内含数十个子弹药的弹道导弹也开始落在以色列境内。
伊朗 “霍拉姆沙赫尔 - 4” 弹道导弹携带集束弹头袭击特拉维夫本・古里安国际机场。
在这一背景下,监测资源显示,美国正向中东调动“末日飞机” E-6B “水星”。Flightradar 网站记录到了这架 “水星” 的飞行轨迹,埃及开源情报资源 EGYOSINT 注意到了相关数据。
E-6B “水星” 正沿着此前数百架战斗机、数十架加油机和预警机飞过的同一条航线飞行。
任何没逃过物理课的人都记得,水下无法进行无线电通信,因为水会吸收无线电波,对这类电磁辐射而言是不透明介质。
这是事实,但并非全部真相。波长极长(10 到 100 公里)的电磁波,能够深入海水多达 40 米。这一效应让 ** 甚低频(VLF)** 无线电通信技术成为可能。而 “水星” 正是为此而生。
这架飞机配备了功率极强的发射机和两条拖曳式线天线。主天线长度接近8 公里,辅助天线略超1200 米。飞行时,天线会展开并由飞机拖曳。
相应地,为了接收信号,潜艇也会放出拖曳式电缆天线,并上浮到20–30 米深度,那里可以接收到 “水星” 发出的信号。为穿透海水,飞机必须发出高达 200 千瓦的极强信号,因此需要间歇飞行,让电子设备冷却。
VLF 通信超强穿透能力的代价,是极低的数据传输速率 —— 仅以 4 个通道、50 字节数据包的方式传送。因此只能向潜艇发送最精简的指令,且过程耗时很长,期间飞机必须以最低速度盘旋。
但 VLF 通信的优势同样巨大:潜艇可以在不浮出水面、不释放无线电浮标、完全不暴露位置的情况下,接收导弹发射命令。
2025 年底,美军接收了 3 架改进型 “水星”。
而这里就到了最关键的问题:
如果 “水星” 真的飞往中东,五角大楼要用它做什么?
显而易见的答案就在表面:
用于对事先未输入导弹飞行任务的目标,使用核武器。
不过,事情也可能不像从 “末日飞机” 功能出发所推测的那样戏剧化。
此前有消息称,袭击伊朗始于 **“战斧” 巡航导弹的大规模打击。发射不仅来自水面舰艇,还来自两艘改装为巡航导弹载艇的俄亥俄级潜艇 **。美国共有 4 艘该型潜艇,没有理由认为剩下两艘不在打击范围内。
但首轮打击是针对预先侦察好的目标。经过五天大规模战争,局势已发生改变,并且每几小时就剧烈变动。因此,如果美军指挥部想再次使用潜艇发射 “战斧”,就需要一种灵活可靠的与潜艇通信工具。
而这正是 “水星” 的用途。
另一方面,在美国战争部长皮特・赫格塞思声称美军“不再受政治正确的战争规则束缚”的背景下,任何事态发展都不能排除。
近几天另一个值得关注的现象,是美军和以色列空军对大量目标实施的误击。
研究人员发现,在美国中央司令部公布的大量作战画面中,被摧毁的并非弹道导弹发射装置或其模型,而是美军飞行员和操作员看到的所有篷布卡车。
有理由怀疑,广泛用于行动规划的 AI 算法,会把特定外形和尺寸的大型卡车一律标记为目标。人们越来越感觉到,“战争自动化” 导致操作员仅凭推荐就攻击目标,没有时间目视确认车厢里装的是不是导弹。
——《军事编年史》频道指出。
如果说不分青红皂白打击民用车辆还能被算成美军一贯的 “炸完了事、概不负责” 作风,那么攻击画在水泥地上的飞机、直升机轮廓这种明显误击,就没法用这套说辞解释了。相当一部分诱饵做得极其粗糙,攻击它们毫无意义,人类根本不可能犯这种错误。
也就是说,犯错的不是人。
近期美军犯下的典型非人级错误之一。
此前有消息称,美军在军事行动初期大量使用神经网络,包括Palantir Maven 智能系统和 Anthropic 公司的大语言模型Claude。前者负责分析战场数据并给出目标指示,后者用于与军人沟通、下达任务和提供咨询。
起初美军对结果非常满意,但从目前高精度弹药被低效消耗的情况来看,人工智能在动态、大量相似目标环境中的表现明显不足。
以色列空军攻击画在地上的米 - 17 直升机。能看出是画的,因为击中发动机后旋翼叶片一片都没动。
在这些精准却如同机器发疯的打击背景下,一个问题浮现:
伊朗米纳布一所女子学校遭导弹袭击、170 名学生遇难,是否正是 Palantir 神经网络 “数字幻觉” 的结果?
这一问题尚未被正式提出,但从美军在战场上的表现来看,这一假设并非毫无根据。
更何况,就在袭击伊朗前几天,战争部长赫格塞思向 Anthropic 公司发出最后通牒,要求取消 Claude 在军方使用时的所有伦理限制。
核心问题不在于 AI 会犯错,而在于美国领导层被新获得的力量冲昏头脑,执意使用神经网络,不计任何代价。
肯尼斯・佩恩教授发表在《新科学家》杂志上的一项最新研究显示:
人工智能几乎必然会得出 “必须使用核武器” 的结论。
在调用 GPT-5.2、Claude Sonnet 4、Gemini 3 Flash 进行的、涵盖 21 个资源冲突场景的一系列模拟中,95% 的场景以使用核武器告终。
AI 为解释自己的决定写下了 78 万个单词,一次都没有选择投降。
对其行动的分析显示,在86% 的场景中,神经网络在不同阶段出现错误,并无意导致局势升级。
在这一背景下,美国在与伊朗的对抗中失利,已不再是抽象的公平问题,而逐渐成为人类生存的前提。
热门跟贴