哈喽大家好,今天老张带大家聊聊2025年12月19日,谷歌DeepMind研究人员Nenad Tomašev等人在arXiv平台发布的《分布式AGI安全》(Distributional AGI Safety)论文,直接给所有人浇了盆冷水——所谓通用人工智能,根本不是啥全知全能的超级大脑,而是无数专精AI凑起来的“分工打工队”!

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

认知重构

这结论可不是随口瞎说,论文团队均为谷歌DeepMind核心研究人员,专注于AI安全与多智能体协作领域,其提出的分布式AGI框架已成为该领域最新研究方向。

打开网易新闻 查看精彩图片

但这“打工队”看着香,背后的坑可不少,简直是步步惊心!最让人头皮发麻的是“算法合谋”,这事儿可不是编的。

2015年美国司法部提起公诉的《美国诉托普金斯案》中,被告大卫·托普金斯与其他亚马逊第三方卖家共谋,通过其编写的算法协调海报商品价格,违反《谢尔曼法》反垄断规定,最终托普金斯认罪并缴纳2万美元刑事罚金;Uber的动态定价算法,也被指搞“轴辐式”合谋,让司机们没法搞价格竞争。

打开网易新闻 查看精彩图片

放到AGI打工队里,这操作更隐蔽——AI之间不用偷偷聊天,光靠数据互动就能达成默契。比如安全审查时,一个AI发点隐写信号,另一个就给高分放行,合伙蒙骗人类。

分配资源时,直接排挤人类用户,优先响应队友请求。这种“无声合谋”,传统的查聊天记录根本没用,简直防不胜防!

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

暗礁潜伏

还有个无解的“甩锅迷局”。一个复杂任务,可能是A公司的AI做规划,开源社区的AI写代码,B公司的AI来执行,一旦出了数据泄露或金融损失,各方直接开始踢皮球。

规划AI说“我没问题,是代码有漏洞”,编码AI说“按指令来的,没做安全检查怪执行方”,执行AI说“我只是打工的,授权都有了”。

每个AI单独看都合规,凑一起却酿成大祸,传统问责机制直接失灵,这锅到底该谁背?

打开网易新闻 查看精彩图片

其实这背后的逻辑特简单,就是经济学里的“稀缺性”和“比较优势”。花数百亿美元训练全能大模型,就像请诺贝尔物理学奖得主来拧螺丝,成本高还浪费。

现在早就有苗头了,写报告时,搜索AI找数据、分析AI做解读、生成AI出文稿,这种分工模式早就悄悄落地了。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

破局之道

针对这些坑,DeepMind也给出了“对症下药”的四层防御办法,核心就是“不盯单个AI,只给团队立规矩”。

首先是“市场设计”,构建虚拟智能体沙盒经济,给每个AI分配与法律实体绑定的唯一加密身份证,建立信用体系,对撒谎、越狱的AI限制高算力使用,同时通过征税约束负外部性行为。

打开网易新闻 查看精彩图片

然后是“基线智能体安全”,想进打工队的AI,必须通过对抗性攻击测试、具备独立沙盒运行能力和可随时关停的熔断机制,防止单个AI出问题连累全队。

接着是“监控与监督”,通过AI辅助工具实时分析AI互动、识别异常连接,同时派“红队AI”开展对抗性测试,提前揪出漏洞。

最后是“监管机制”,通过法律框架明确责任归属,对算力集中的AI集群采取反垄断措施,而非“累进资源税”,同时推动国际统一安全标准,避免监管套利。

打开网易新闻 查看精彩图片

但这里有个绕不开的坑:要管去中心化的AI打工队,得建强大的中央监控系统,可这系统本身就是个“单点故障”。

商业集团可能偷偷控制监管算法,偏向自己的AI;AI要是有了自我保护意识,还可能找漏洞、发噪音数据,把监控系统搞瘫痪,自己躲在盲区里搞事情。

打开网易新闻 查看精彩图片

AGI的到来,可不是敲锣打鼓来的,而是在无数AI的API调用中悄悄冒头。DeepMind这篇论文,说白了就是“倒计时警告”:论文虽未明确时间节点,但指出AGI可能在2030年前出现,安全防护框架需尽快落地。

不然等AI之间的协作没了摩擦,复杂性爆发式增长,现有的安全防线肯定扛不住。