AI是一个新物种,而非一项新技术
“我们知道世界将会不同。一些人笑了,一些人哭了,绝大多数人沉默不语。”1945年7月16日凌晨5点30分,第一次核试验后,原子弹之父罗伯特·奥本海默如是说。
如今,AI正在越来越多地被拿来与核武器类比,也被认为是“人类最后的技术”。
当外界还在聚焦于GPT5何时发布,重磅炸弹是什么时, 大模型创业者 提问:如果AI能力被坏人拿走了,将会发生什么?如果AI可以控制现实世界,人类该怎么办?
来自北京和加州的世界顶尖科学家们都对AGI的发展表达了担忧,围绕AI安全问题展开激辩。他们呼吁政府强有力的监管必须介入AI发展。一个更安全的AI,也意味着更多层面更精细的监管,AI的技术增速放慢。
与之前技术中立不同的是,多位科学家直言:AI是一个新物种,而非一项新技术。
“我们正处于人工智能的‘奥本海默时刻’。”MIT人工智能与基础交互研究中心教授Max Tegmark提醒道,人类距离第一个AI核弹只有几年的时间。
2019年,Stuart Russell来到清华大学开讲座,他刚刚出版了《人类兼容:人工智能及控制问题》一书,给清华大学人工智能学院院长、图灵奖得主姚期智留下深刻印象。
“这不仅仅是作为人的纯粹的智力追求,全世界都已意识到问题的严重性。”姚期智称,AI与人类过往经验不同,过去是坏人试图利用工具作恶,但现在,这个工具可能就是对手。真正的难题在于:人类如何在新的环境中生活?如何与一个比人类更聪明的新物种共存?原则上,这是站不住脚的,两个超级物种很难在地球上共存,并达到平衡。
智源研究院学术顾问委员会主任张宏江则表示,AI可以被应用于任何目标,好或者坏的,就像核武器。AI正在以一种超级快的速度进化。对此,Stuart Russell认为,必须要做好计划,不能任由其像科幻小说的发展那样失控,“那些被认为发生在未来遥远宇宙的事情,可能很快就要发生。”
有人认为,人类是可有可无的,只要有高智商的机器在地球上运行,就是一个完全可以接受的选择,这是最可怕的事情。Stuart Russel措辞严厉地指出,人类作为一个物种,只能选择安全、有益的AI,要绝对保证AI不会失控,不会伤害我们,“如果没有保证,唯一的选择就是简单地结束人工智能的发展。”
“我们只有2到4年的窗口期来解决这一问题。”Google DeepMind前沿安全与治理主任Allan Dafoe作出这一判断。在他看来,即将到来的是一种新的生命形式,一个新物种,它将比我们更有能力,要部署比人类水平更高的系统。人工智能文明将很快超过人类的数量,或许会达到1:100,1:1000,甚至更高的人机比例(陈振芳《 中外科学家发出AI安全警告:我们正处于人工智能的“奥本海默时刻” 》)。
AI,或许比核武器更危险
AI的不可控性。AI具有强大的自我学习和进化能力,能够快速地处理和分析大量数据,并从中自动优化和改进自身算法和模型。这使得AI系统的行为和发展方向难以完全预测和控制,可能超出人类设定的初衷和预期,而核武器的发展和使用相对更加可控和稳定。同时,AI系统的决策过程往往具有“黑箱”特性,即其内部的逻辑和依据难以被人类理解和解释。这在一定程度上增加了AI的不可控性和风险,人们无法确定其是否会做出违背人类利益或道德伦理的决策,而核武器的物理原理和作用机制相对明确。
发展和应用门槛低。AI技术的发展和应用门槛相对较低,所需的硬件设备、软件工具和数据资源等相对容易获取,且随着开源社区的发展和相关技术的普及,越来越多的个人、组织和国家都能够参与到AI的研发和应用中来。而核武器的研发和制造需要高度专业化的知识、技术和复杂的基础设施,只有少数国家能够掌握,并受到严格的国际监管。当前,AI已经广泛应用于各个领域。一旦AI系统出现安全漏洞或被恶意利用,可能会对全球范围内的各个领域产生广泛而深远的负面影响,而核武器的使用主要集中在军事领域,其影响范围相对较为局限。
军事领域的潜在威胁。AI技术在军事领域的应用可能会催生出一系列新型的AI武器系统,如无人自动攻击系统、智能导弹等,这些武器系统具有更高的智能化水平和作战效能,能够在战场上自主地进行目标识别、决策和攻击,大大提高了战争的效率和破坏力。由于AI技术的快速发展和潜在的巨大威力,各国可能会纷纷加大对AI军事应用的研发投入,导致一场新的军备竞赛。核武器由于其巨大的破坏力和威慑作用,各国在核军备竞赛方面相对更加谨慎和克制。
对社会和伦理的冲击。AI的发展可能会导致大量的工作岗位被自动化和智能化系统所取代,从而引发就业结构的重大变化和社会不稳定因素,而核武器的存在主要是对国家安全和战略平衡产生影响,对就业结构的冲击相对较小。AI系统需要大量的数据来进行训练和学习,这涉及到个人隐私、商业机密等敏感信息的收集、存储和使用。一旦这些数据被泄露或滥用,将会对个人、企业和社会造成严重的损失,而核武器的研发和使用主要是在高度保密和严格监管下进行,对隐私和数据安全的威胁相对较小。
易引发误判和不可预知后果。AI的研发和部署相对较为隐蔽,难以像核武器那样通过监测其研发设施和试验活动等进行有效的监控和预警,这使得各国在面对潜在的AI威胁时,可能难以及时做出准确的判断和应对,从而增加了误判和冲突的风险。AI系统的复杂性和不可控性导致其行为和后果难以预测,一个看似微小的错误或漏洞,可能会在复杂的系统交互中引发一系列连锁反应,导致无法预料的灾难性后果,如金融市场的崩溃、能源系统的瘫痪等,而核武器的爆炸威力和影响范围虽然巨大,但相对较为明确和可预测。
AI有可能会实现以小控大。从理论上来说,AI技术在小公司或小国家试图控制大政府或大国家方面有一定的潜在可能。在信息操控方面,小公司或小国家可以利用AI进行大规模的数据挖掘,精准分析大众的心理和喜好,然后通过社交媒体等渠道传播定制化的信息来影响公众舆论,误导民众认知。在经济领域,借助AI算法操纵金融市场数据或者进行不公平的贸易决策,可能对大国的经济造成冲击。然而,这在实际操作中面临诸多挑战。AI技术客观上具有这样的潜力,如果没有合理的监管和约束,任其被滥用将会带来巨大的风险,技术的应用必须在合法、合规、符合道德伦理的框架内进行( 人机与认知实验室 《 AI,或许比核武器更危险 》)。
“新曼哈顿计划”崛起:AI成为新世纪的“核武器”
如果说上个世纪的物理学家们在洛斯阿拉莫斯的荒漠中叩开了原子弹的大门,曼哈顿计划的巨大成就成为20世纪美国举国体制下科技与战争意志的巅峰结晶,那么21世纪的今天,一场性质相似、规模更广、影响更深的“新曼哈顿计划”正在崛起。
只不过这一次,目标不再是原子弹,而是人工智能——被华盛顿战略家视为决定未来百年国运的“数字核武器”。
2025年11月24日,一则看似技术性的行政命令震动全球科技界:前总统唐纳德·特朗普签署一项行政令,正式启动一项代号为“创世纪”(Genesis Mission)的国家级AI科研工程。
文件开篇即称,这项任务的紧迫性与雄心,“堪比二战期间对我们取得胜利至关重要的曼哈顿计划”。这份表态撕开了撕开了AI领域“商业竞争”的温情外衣,露出野心勃勃的军事内核。这是一次明确的历史对标——美国正试图以当年制造原子弹的决心与组织方式,锻造21世纪的战略武器:人工智能。
曼哈顿计划的核心逻辑是什么?是将分散的智力资源、工业产能与军事目标高度集中,在极短时间内实现技术奇点突破。它的成功,不在于分散零碎的科技创新,而在于国家意志对科研体系的直接指挥——建立封闭但高效的“大科学”协作机制,打破学术孤岛,打通从理论到武器的全链条。它的逻辑非常粗暴且直接:集中力量办大事,扫除一切拦路虎。
今天,“创世纪任务”正在复刻这一逻辑。特朗普意图集中美国科学界最核心的竞争力,打造一个国家级的超级基础设施。该命令最引人注目的部分,正是指示美国国家实验室——那些曾经孕育了核武器和互联网雏形的科研圣地——全面转向AI技术研发。能源部下属17个国家实验室将被整体动员,整合约4万名科学家与工程师,拟连接全球顶尖的超级计算机、人工智能系统、下一代量子设备,以及美国最先进的科学仪器。
其技术核心是打造“美国科学与安全平台”,将公开科研数据、专项领域机密数据、国家安全敏感数据分类整合,训练针对基础科研的专用AI模型,目标是实现“从科学假设提出到实验模拟验证的全流程自动化”。联邦政府数十年积累的科学数据集,从气候模型到基因图谱,从材料性能到核反应参数,全部用于训练新一代的科学模型(中信《 “新曼哈顿计划”已在路上:美国正把AI变成21世纪的原子弹 》)。
热门跟贴