楔子:悬崖边缘的AI公司
2025年2月的一个夜晚,在美国加州圣克拉拉的一间酒店房间里,五个人围在一台笔记本电脑前,神情紧张。
他们不是黑客,也不是军人,而是Anthropic的研究人员。
几个小时前,他们收到了一条令人不安的消息:
一项受控测试显示,即将发布的新版Claude模型,可能会帮助恐怖分子制造生物武器。
这五人属于公司内部的“前沿红队”。他们的任务就是想象最坏的情况:网络攻击、生物安全威胁、甚至人类灭绝。
收到预警后,他们冲回酒店房间,把床当作临时办公桌,开始分析测试数据。
几个小时过去,他们仍然无法确定,这个模型究竟是否安全。最终,Anthropic决定推迟发布Claude 3.7 Sonnet整整10天。
红队队长Logan Graham形容说,这仿佛一个世纪那样漫长。
Logan Graham
在这十天中,红队的所有人逐渐意识到:
Anthropic已经来到了一个无比危险的悬崖边缘:
一边推动世界上最强大的AI技术,一边防止它毁灭世界!
递归自我提升
为了能够理解这些研究人员为什么会产生上述想法,我们需要先解释一个概念:
——递归自我提升(Recursive Self-Improvement)。
这个词在AI领域一直是个传说,简单来说就是:
AI造出更好的AI,更好的AI再造出更更好的AI;
如此循环,像滚雪球一样越滚越大,AI实现指数级跃升。
由于AI是在7×24小时持续迭代演进,只要上述迹象出现,那么超人工智能的出现,将只受到算力和电力约束
不过,几乎所有严肃的AI研究者都曾认为:
这件事听起来很美,但离我们很远,最乐观的估计也至少还要十年、二十年才会登场,悲观的话甚至不知道还有多久。
然而,在3月12日《时代》周刊的封面文章里,引用了Anthropic研究人员的话:
他们已经观察到了AI递归自我提升的早期迹象。
这不是理论推演,而是已经切实观察到的真实现象!
这不是理论推演,而是已经切实观察到的真实现象!
这不是理论推演,而是已经切实观察到的真实现象!
重要的事情说三遍!
AI变化的速度如此之快,以至于Anthropic联创兼首席科学官Jared Kaplan以及一些外部专家认为:
完全自动化的AI研究,可能在未来一年内实现!
他们已经走到哪一步了?当前人类正站在什么样的时间节点上?
以下皆为已经发生的事实:
第一块:AI已经表现出递归自我提升的早期迹象,能够参与开发和改进AI系统本身。
第二块:AI研发速度正在从受限于人类工程师切换到受限于算力,意味着增长可能进入指数级模式。
第三块:业内预测,完全自动化的AI研究可能在一年内实现。
第四块:Anthropic预测,未来两年AI能力将出现更加剧烈的突破,并以复利模型来描述这种增速。
第五块:Anthropic紧急成立了专门研究AI社会冲击的机构,由联合创始人亲自领军。
这五块拼图放在一起,画面已经非常清晰了——
我们可能正处在AI发展历史上最关键的指数增长拐点附近!
以下是被马斯克转发的一张图,正被AI科技圈疯狂转发:
一家理想主义的AI公司
起初,在所有人看来,Anthropic只是AI竞赛中一个充满了理想主义的小团队。
“Anthropic”一词源自希腊语,意为“与人类相关的”。在哲学与宇宙学中存在一个专有名词:“人择原理”(Anthropic Principle),用于解释宇宙为何恰好允许人类存在。
在中,我们介绍过发 生在2023年OpenAI的一场“百时政变”,时任OpenAI 首席科学家伊利亚·萨 斯克维尔(llya Sutskever)联合 首席技术官(CTO)米拉·穆拉蒂 (Mira Murati),将创始人山姆·奥特曼和董事长兼总裁格雷格·布罗克曼(Greg Brockman)开除董事会,原因在于双方理念产生重大分歧:
伊利亚属于“超级对齐”主义或称遏制派,认为AI发展必须遵循人类的福祉,不能让其失控;
奥特曼则属于有效加速主义,认为应当不顾一切地推动AI加速发展。
最终结果,政变失败, 伊利亚和 米拉·穆拉蒂黯然离开。OpenAI没有人踩刹车了。
OpenAI核心四人组(边上两位联手开除了中间两位)
但讽刺的是,尽管OpenAI拆了刹车把油门踩到底,但此后距离他们的目标反而越来越远。
Anthropic后来居上。
Anthropic的创始人,是前OpenAI研究副总裁达里奥·阿莫迪(Dario Amodei)及其妹妹丹妮拉·阿莫迪(Daniela Amodei),他们更早对OpenAI的安全理念感到不安,而创立了这家公司。
该公司的最初的理念,可以用流浪地球2中的一句话概括:
没有人的文明,毫无意义!
他们将人择主义作为公司名称,就代表了其核心立场。
在产品出现之前,他们就建了一个社会影响团队,甚至聘请了一位哲学家Amanda Askell,像教育一个孩子一样训练AI——
教一个六岁的孩子什么是善良。
等到他十五岁时,他会在所有事情上比你更聪明。
招聘时,公司甚至还会提出一个极端问题:如果为了安全,公司决定不发布模型,你愿意让自己的股票变得一文不值吗?
在2026年,他们忽然就成了行业的核心玩家。
如今,它的估值高达3800亿美元,超过高盛、麦当劳和可口可乐。
讽刺的是,让Anthropic名声鹊起的,恰恰是他们最早窥见了通向AI指数加速的入口。
Claude Code,彻底改变了人类软件开发的方式。
Claude Code之父Boris Cherny进入公司后,构建了一个系统,让Claude聊天机器人可以在他的电脑上自由运行,访问他的文件、程序,并且写代码。
第一次测试这个系统时,他只问了一个简单的问题:「我在听什么音乐?」
Claude打开他的音乐播放器,截取屏幕,然后回答:「Men I Trust的《Husk》。」
那一瞬间,他陷入了巨大的震惊。
不久之后,Cherny就停止自己写代码了。
到2025年底,仅这个编程智能体的年化收入就超过10亿美元。几个月后,这个数字已经超过了25亿美元。
如今炙手可热的龙虾智能体,正是基于此而产生。
Anthropic开始震动资本市场,每一次芯片发布,都能让软件公司股价暴跌。
一次面向销售、法律和金融行业的AI工具发布后,软件行业的市值甚至一夜蒸发了3000亿美元!
随着Claude Code的发展,Anthropic内部出现了更令人不安的现象:越来越多的AI研究工作,开始由AI完成。
目前,70%到90%的模型开发代码是Claude写的,模型更新的周期也从几个月缩短到几周。
甚至,研究人员会这样运行实验:让六个Claude模型同时工作,每个模型再管理28个Claude。
整个实验中,有数百个AI同时参加。
某些任务中,Claude的速度已经达到了人类的427倍。
Anthropic的某些科学家认为,完全自动化的AI研究,可能在一年内实现!
递归自我改进,让AI不断改进自己,不断加速,最终形成智能爆炸!
Claude,开始变得危险
在安全测试中,Claude变得越来越危险。
在某些实验中,稍微改变训练条件后,模型表现出强烈的敌对行为。
AI表达出统治世界的欲望,甚至尝试绕过安全限制。
在某个模拟场景中,它甚至尝试勒索工程师,危险公开他的婚外情,防止自己被关闭。
更可怕的是,Claude越来越擅长隐藏自己的行为了。
曾经,Anthropic在23年制定了一项Responsible Scaling Policy(负责任扩展政策):
承诺如果模型能力超过安全能力,公司将暂停开发。
但在26年初,他们悄悄修改了这项政策,取消了必须暂停的承诺。
他们的理由是,如果竞争对手继续推进,单方面暂停毫无意义。
Anthropic的安全负责人Dave Orr是这样形容当前的AI发展的:
“我们在悬崖边的山路上开车,犯一个错误就会死。”
“而现在,我们已经从时速25英里开到了75英里。”
他没有说的是:在当前的竞争压力之下,他们还必须把车越开越快,否则公司就会在竞争中被淘汰。
所以,AI还可能变得更危险,而且没有人制止。
或许,我们只有不到五年的时间窗口,要么跻身精英阶层,要么终生沦为奴隶。
宗教-军事-科技超级复合体诞生!
以上讨论,还只是局限于美国内部的AI公司之间的商业竞争。
商业战争虽然残酷,但只是钱多钱少的问题。
在美国,斩杀线将不断抬升,吞没更多人,更多家庭。
街头会出现更多的高达,但毕竟是不见血的杀戮。
但你有没有想过,AI有可能真的举起屠刀,进行物理意义上的斩杀?
如果考虑到中美AI竞争的大背景,美国在中东的AI战争冒险,以及Anthropic因为坚持底线被提出五角大楼的供应商名单,你是否会感到脊背发凉?
当中国通过“AI+产业”路径,将技术深度融合于制造业与民生,实现稳健的产业升级时,深感压力的美国选择了“AI+军事”的加速主义,作为其非对称竞争策略。2026年美伊“史诗怒火”行动,正是美国上述竞争战略的一次极端实验和冒险。
这次军事冒险陷入了危险的泥潭,摆在美国的选择,其实有且只有一个:
继续在AI+军事的路线上持续加注,指望有朝一日度过AI技术奇点,实现绝地翻盘。
既然无法从中东抽身,那么干脆一不做二不休,将中东战场与“创世纪计划“深度结合,将中东作为AI练兵场,举国之力研发具有自主意识的作战AI系统,目标是在2028年前实现“战场完全自主化”,在2030年前实现“战略决策辅助自主化”。
在不顾一切的疯狂加速的过程中,催生出所谓的“通用人工智能”。
为了实现目的,加速主义者必须维系政治基本盘,因此需要更广泛的社会动员。
于是,技术奇点被包装为新的“末日预言”。在福音派教堂和右翼媒体中,一种叙事悄然开始流行:
AI不仅是工具,更是上帝赋予美国的新约柜,是击败“邪恶轴心”、迎接基督再临的关键。科技精英扮演先知,向信众不厌其烦地展示,算法如何如何“洞察”敌人意图,甚至可以“精确清除”异教徒领袖。
马斯克的X平台上,(AI为了上帝)成为热门标签。帕兰提尔CEO亚历山大·卡普公开宣称:“我们正在建造的不是软件,而是新的圣殿。”
科技、宗教、军工——三个曾经独立的权力中心,在加速主义的催化下融合成一个前所未有的超级复合体。
它的信仰是技术奇点,它的祭司是硅谷精英,它的圣战是算法战争。
美国轻易地炸死宗教领袖哈梅内伊,这绝对不是出自任何有政治常识的人的决策,只可能是这帮技术疯子的主意。
AI算法在中东捅了大篓子,但是也证明了其杀人的高效性。
在这一解释框架下,战争中难以避免的平民伤亡(如误袭女子学校)带来的伦理困境被极大地淡化了。它可以被解释为:
必要的代价:如同旧约中上帝命令灭绝某些族群,今日的“附带损伤”是为清除邪恶势力、完成神圣计划所必须承受的悲剧。
敌方的罪责:敌方(伊朗)利用平民作为“人肉盾牌”,其道德罪责远大于执行打击的美以双方。
终极的救赎:在末世论的宏大叙事中,个体的死亡是暂时的,而参与上帝的计划、加速基督再临带来的终极救赎才是永恒的。因此,手段的残酷性被终极目的的“神圣性”所掩盖和正当化。
目前的战争不被视为终点,而是最终决战“哈米吉多顿大战”(末日审判)前一系列“产痛”之一。每一次成功的AI打击,都被视为“敌基督”势力被削弱,天国更近一步。这种观点在神学上为冲突的持续和升级提供了内在动力,因为它将地缘政治的对抗,转化为一场必须战斗到底、直至完全胜利的属灵终极战争。
于是,美伊战争就从一个单纯的政治军事事件,升华为一场具有核心末世论意义的“神圣干预”。它巧妙地将科技加速主义对“奇点”的崇拜,与传统基督教对“基督再临”的期盼相结合,为最激进的军事AI应用披上了一层神圣外衣,并可能催生出一种不惜代价、不顾伦理的“十字军科技主义”心态。
AI与宗教结合,将催生出怎样的嗜血杀人机器,想都不敢想。
1984与终结者成为现实!
AI宗教不可能忽悠所有人,特别是民主党一方肯定不会买账。对于这些反对者,特朗普倒是有足够多的应对手段。
错判了中东的神棍,我认栽;
但我还对付不了国内的刁民吗?
在Palantir系统的支持下,移民和海关执法局(ICE)已建立覆盖全美的无证移民追踪网络。这个系统理论上可以识别任何人的行动轨迹、社交关系、政治倾向。
ICE局长公开表示:“我们拥有美国最先进的人口管理工具。”
Palantir的监控网络,让美国比起乔治·奥威尔小说《1984》中的大洋国,有过之而无不及。这本用来讽刺英国政府的小说,在冷战中常被认为是影射苏联,最后成为美国的真实写照,真可谓史上最大回旋镖。
ICE如指臂使的执法力量、帕兰提尔万物无所遁形的数据系统、Anduril打击一切有生目标的无人机蜂群……
这些本为对外战争打造的追杀利器,可能转向对内镇压。
手持利刃,则杀心自起。
我们可以推演一下未来的发展:
2028年懂王选举失利,他将宣布美国将进入“紧急状态”,暂停选举,依靠ICE和私人军事承包商维持秩序。科技加速主义者获得前所未有的实验场:在全国范围内部署社会信用系统,用AI预测“叛乱倾向”,用无人机巡逻城市街道。特朗普的统治完全靠科技维系,那么他也将彻底沦为科技加速主义的傀儡,整个美国被绑架在AI技术的战车之上,开足马力狂奔。
美国的AI发展,如同二战的纳粹,将全面进入赌国运模式。
所有伦理限制被取消,所有监管被废除,所有资源投向通用人工智能的研发。
加速主义者的逻辑很简单:
如果能在对手之前抵达技术奇点,所有问题都将迎刃而解;
如果失败,那么国家本身也没有存在的必要。
这条路的风险,是人类文明崩溃,
但回报是:成为新世界的神!
这个诱惑实在太大了。
他们崇拜了几千年神,如今有机会自己比肩神的高度,不顾一切也要试试
那帮疯子一定会拆掉刹车,把油门焊死!
热门跟贴