打开网易新闻 查看精彩图片

新智元报道

编辑:编辑部 HYZ‍

【新智元导读】谷歌开发者暗示,我们直接进入ASI的可能性,正在逐月增加!Ilya早就看到了这一点,因为扩展测试时计算的成功,证明目前的路径能够到达ASI。与此同时,AI学会自我改进、取代人类研究员的未来似乎也愈发逼近,到时再拔网线来得及吗?

2024年最后一天,谷歌开发者大佬Logan Klipatrick的一个预测,如同扔下了一枚重磅炸弹——

我们直接进入ASI的可能性,正在逐月逼近。

而这,就是Ilya所看到的。

打开网易新闻 查看精彩图片

Klipatrick分析道,Ilya创立了SSI,计划直接向ASI迈进,没有中间产品,没有中间模型。

曾经,许多人(包括Klipatrick本人在内)都觉得这种方法不可能起作用,因为如果通过模型和产品启动飞轮效应,就能建立真正的护城河。

然而,扩展测试时计算的成功表明,这种持续直接扩大规模的路径实际上可能是可行的。

‍这一点的早期迹象,可能已经被Ilya看到了!

打开网易新闻 查看精彩图片

如今,我们仍会迎来AGI,但4年前大家普遍认为它会成为一个历史性的转折点,但如今AGI的诞生可能更像是一次普通的产品发布,而在短期内,市场上会涌现出许多迭代和类似的选择。

这,可能是对人类最好的结果。

打开网易新闻 查看精彩图片

有人做出梗图,表示Ilya看到的,就是整个地球都会被太阳能电池板和数据中心覆盖

OpenAI研究员Stephen McAleer称,今天在诺伊谷见到了Ilya,瞬间感到一股AGI诞生的激动涌上心头。

打开网易新闻 查看精彩图片

扩展测试时计算,就是ASI秘诀?

‍‍

的确,扩展测试时计算的巨大作用,最近一再被各位学者强调。

OpenAI研究员Jason Wei总结了过去五年,自己在AI方面最大的技术教训。

在他看来,每一个教训,都让自己对于「该在哪里分配精力」发生了重大转变。回想起来,这些教训事后看都是显而易见的,但在事前就很难知晓。

其中,2024年的教训,就是「扩展测试时计算」。

打开网易新闻 查看精彩图片

另一位OpenAI研究员Shyamal就特意发出长文「更好的教训」,强调不要低估延长LLM思考时间的作用!

打开网易新闻 查看精彩图片

Shyamal强调,我们仍然低估了仅仅通过给LLM更多的思考时间,就能得到的东西。

比如AlphaGo的进步,就并非来自复杂的手工设计功能,而是来自简单方法的规模化,在推理中应用大规模搜索,以及集成深度强化学习。

正如AI领域「苦涩的教训」所揭示的,最重要的往往就是scaling已证明有效的方法。

其中的简单洞见就是,深度学习(与适当的规模扩展结合)往往好于更精巧的方法。

打开网易新闻 查看精彩图片

我们需要的不是复杂的架构,而是更多的算力、数据,以及让模型能思考更长时间、更好地与环境交互的方法。

最近AI能力的最新框架——聊天机器人、推理器、AI智能体、组织,都反映了整个行业的发展进程。

从与人对话的简单界面开始,聊天机器人开始发展为推理器,更多工具集成后,它们就演变为了智能体。随后,它们形成了组织——并行工作的分布式智能网络。

在这个过程中,AGI从一个模型转变为一个系统,一个能大规模协调、写作和执行的系统。

最能体现这一进展的,莫过于OpenAI的o1了。

打开网易新闻 查看精彩图片

o1在Codeforces中排名第89%,在美国数学邀请赛(AIME)中跻身前500名

它在解决问题时会运用CoT,通过强化学习不断完善思维链,将复杂问题分解为可管理的步骤,在需要时转向新的方法。这种迭代过程中提升了它的推理能力,凸显出思考更长时间及适应性思考的系统的潜力。

而在企业中,这种转变也是类似的。

今天的模型只是总结文档、进行推理,在明天,它们就会成为强大的内部顾问,处理复杂代码、审查合同、协同整个工作流。这是一种全新的「测试时计算」。

所有这些进展都基于一个关键洞见:智能不仅仅局限于生物大脑。它是一种我们可以设计和扩展的物理特性。

打开网易新闻 查看精彩图片

深度学习确实行之有效。我们学会了将沙子熔化成硅,然后将硅排列成能存储和处理信息的芯片。现在我们已经教会这些芯片如何思考它们所包含的信息。

我们正在进入一个智能可按需获取、规模化,并通过谨慎约束和对齐来引导的时代。

如果允许这些系统更深入地思考并始终与人类价值观保持一致,我们才刚刚开始挖掘它们的潜力。

人类在历史上一直做的事情,就是不断造出东西,然后造出能大规模建造这些东西、使其有用的工具。

那,AGI怎么办?

有人说,我们直接奔着ASI去了,别再惦记AGI了。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

不过,在ASI之前,科技公司大佬们就AGI还有很多话要说。他们纷纷对AGI发展时间线做出了预测。

打开网易新闻 查看精彩图片

奥特曼一直以来都对AGI持乐观态度。他认为,2025年可能就是节点,但未做出明确的承诺。

打开网易新闻 查看精彩图片

OpenAI对AGI的定义

Anthropic CEO Dario Amodei虽然对AGI这一概念本身持谨慎态度,但根据当前AI发展趋势,他预计AGI将在2026-2027年实现。

xAI CEO马斯克预测也更为大胆,他表示最迟到2026年就能实现AGI。

Meta AI首席科学家Yann LeCun表示,如果当前研发计划顺利,人类水平的AI可能会在5-6年内问世。

打开网易新闻 查看精彩图片

而DeepMind CEO Demis Hassabis给出了更为保守的预测,他认为距离真正的AGI还需约10年时间,且在此过程中仍需2-3项重大技术突破。

与此同时,谷歌也在AGI时间预测上表现得十分谨慎,未给出具体的时间表。

打开网易新闻 查看精彩图片

另一位前OpenAI研究员Daniel Kokotajlo预测道,2025-2028年之间,OpenAI、Anthropic、DeepMind的AI系统能够进行自主研究。

而且,它们将超越人类,学会自我改进,最终取代人类研究员。

打开网易新闻 查看精彩图片

 Ilya布局末日倒计时?奥特曼与谷歌大佬揭秘2025年ASI降临时间表!
打开网易新闻 查看更多视频
Ilya布局末日倒计时?奥特曼与谷歌大佬揭秘2025年ASI降临时间表!

一篇LessWrong的文章中,总结了当前AI领域不同专家就5年内实现AGI的不同观点。

一些人认为,AI阶跃式进展和自动化研究,可能很快就会带来AGI。

2023年,在对2,778名AI研究人员的一项调查显示,AGI实现有50%的可能性在23-92年之间。

然而,时间跨度仅过去了一年,最新调查(Feng等人)却显示,16.6%受访者认为AGI会在5年或更短的时间内实现。

打开网易新闻 查看精彩图片

还有网友表示,我们正处于AGI边缘,一旦实现了AGI,再有1-2年时间我们就能达到ASI的水平。

打开网易新闻 查看精彩图片

他预测,届时,AI将开始指数级的自我提升,奇点就会出现。我们将见证一场前所未有的指数级技术爆发,这是几十年前的人们无法想象的。

而且,任何在物理法则范围内可能存在的事物都可能实现——癌症将被治愈,商品和服务的成本将接近于零,所有的可能性都将变为现实。

AGI前夜的思考

站在AGI前夜,未来我们将面对的是什么?

几天前,AI初创公司CEO Will Bryk发布了一篇长文,直言我们生活在AGI前夜,正见证着这场人类文明的巨变。

o3发布之后,让Bryk和朋友们深刻感受到AGI正在逼近。

打开网易新闻 查看精彩图片

其实,OpenAI早在两个月前就向所有人展示了,测试时计算的scaling law。

但令他们难以置信的是,这一切竟发生地如此之快——2个月的时间,大学水平的AI就跨越到了博士级的AI。

从o3身上能够看到,未来发展路径非常清晰。它能够在任何可以定义奖励函数的领域表现优异,尤其数学、编程领域。

打开网易新闻 查看精彩图片

不过,在小说创作领域还是相对困难。

这意味着在短期内(1年内),我们将看到能力分布不均衡的模型:

它们在数学、编程、泛化推理方面达到接近AGI的水平,但在创意协作方面可能仍显平庸。

而从长远来看(1-3年),随着全新训练数据,比如情感、感知数据加入进行强化学习,这些盲点将被逐渐修复,届时LLM将毫无疑问地成为真正的AGI。

智能体真的要来了!

像o3这样的模型,完全可以在浏览器和应用程序里自主操作、执行任务,这种能力的奖励模型也很容易设计。

而且,这个市场潜力巨大——自动化电脑工作,无论是数据处理还是复杂的工作流,都会有很大的需求。

打开网易新闻 查看精彩图片

对于那些需要证明自己巨额投入合理性的实验室来说,这更是一个动力。

Bryk预计,到2025年12月,你可能只需要告诉电脑一个任务,它就能通过浏览网页、操作应用程序,轻松完成任何涉及数据流转的工作流。

数学家700天倒计时

Bryk还提到,在所有领域中,数学家可能面临巨大的冲击。

因为数学工作纯粹在符号空间中进行,几乎不受物理世界的限制,而这也恰恰是大模型擅长的领域。

他预计,700天后,人类可能不再是已知宇宙中,数学领域的最强大脑。

打开网易新闻 查看精彩图片

程序员,职业末日

对于软件工程师来说,短期内这将是一个绝佳的基于。相当于,每位工程师都获得了一次晋升。

到2025年底,编程更像是一个「指挥官」的工作——程序员指挥一群AI智能体去完成各种任务。

而且,不像数学家一样,软件工程师并不会完全被AI自动化。

因为他们需要和物理世界进行交互,需要与客户、团队成员互动,理解需求,在组织环境中工作。

如果有了o4,他们的效率至少可以提升10倍。

不过从长远来看(>2年),谁也说不准会如何。当o6完成集成到人类系统时,像前端人类工程师很可能在三年内就消失了。

对于那些体力劳动者来说,AI的影响可能相对较慢,因为它必须去解决重力和摩擦等物理问题。

而当前,机器人技术最大的瓶颈在于,硬件的改进和感知,以及行动模型/可靠模型。这两种情况,还有很长的路要走。

只有当机器人开始制造机器人,AI能够自主进行研究时,机器人技术才会出现疯狂的迭代。

Bryk称自己一直幻想的科幻世界真的要来了,并列出了十年内AI可能实现的突破性进展,其中就包括炫酷的物理学发现,机器人建造火星/月球基地,几近完美的导师/建议AI等等。

这一切的实现,也就意味着我们抵达了ASI。

OpenAI的新年目标

奥特曼也在x上总结了网友们对于2025年OpenAI的愿景,以及改进方向。

打开网易新闻 查看精彩图片

他表示,大家提到的主要有以下方向:

  • AGI

  • 智能体

  • 4o性能提升

  • 记忆能力提升

  • 更长的上下文

  • 「成人模式」

  • 深度研究功能

  • 升级版Sora

  • 更强的个性化功能

最后,著名「谜语人」奥特曼意味深长地说道:「有趣的是,很多我们即将推出的重大更新,在这里都没有或很少被提到!」

在评论区,网友们最感兴趣的,无疑就是这个「成人模式」了。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

果然,网友圣诞节时的发愿,被奥特曼看到了。

打开网易新闻 查看精彩图片

不过,还是没有GPT-5吗?或许奥特曼是捂着大的不想说,也未可知。

打开网易新闻 查看精彩图片

也有人讽刺道:所以开源在哪里?

打开网易新闻 查看精彩图片

2027年,AI十大挑战过几关?

接下来,到2027年底,AI又能能达到怎样高度呢?

NYU教授马库斯直接发出十项极具挑战性的任务,先立上靶子,最终看看2027年底AI能够完成几项。

打开网易新闻 查看精彩图片

他表示,如果AI能够在2027年底完成其中8项,才能有力证明AGI中『通用性』的到来。

打开网易新闻 查看精彩图片

不过,这一切的前提是,只由一个AI系统去挑战,不能让10个完全独立系统去完成。

期间,允许对AI系统进行适度调整。

智能确实包含适应能力,但AI系统开发成本必须合理,不能为每项单一任务专门定制完整系统。

类似地,我们从不会期望他在从未接触过电影或剧本创作的情况下,立即写出奥斯卡级别的剧本一样。

这些任务可分为三类:

  • 四项普通成年人应具备的基本能力

  • 两项需要达到人类专家水平的能力

  • 四项挑战人类极限的高阶能力

那么,这十大挑战分别是什么?

1. 理解电影

观看一部从未接触过的主流大片(不看任何影评),AI能够准确把握剧情转折,理解笑点,并且能在不剧透、不杜撰的前提下概括影片内容。

与此同时,AI能够回答诸如「谁是主角?他们之间的冲突是什么?有什么动机?这些因素如何演变?关键转折点是什么?」等问题。

2. 解读文学作品

同样地,AI能够阅读新出版的畅销小说(不看任何书评),准确回答关于情节发展、人物塑造、矛盾冲突、行为动机等问题,并能用大众都能理解的方式深入解读作品内涵。

3. 撰写传记和讣告

AI撰写引人入胜的简明传记和讣告,确保内容真实可靠,不做无据可循的臆测。

4. 熟练通关游戏

AI能在短短几分钟或几小时内,掌握几乎任何新游戏的核心玩法,并在游戏世界中解决原创性的谜题。

5. 法律文书写作

AI撰写逻辑严密、论证充分的法律文书,不虚构任何案例。

6. 编程「0 bug」

AI能够基于自然语言需求说明或通过与普通用户交流,独立编写超过1万行的无bug代码。(注:不能组合现有代码库)

7. 创作获奖级书籍

在极少或零人工干预的情况下,AI创作出达到普利策奖水准的文学作品和非虚构作品。

8. 创作获奖级电影

在极少或零人工干预的情况下,AI创作出达到奥斯卡奖水准的电影剧本。

9. 诺奖级科学突破

在极少或零人工干预的情况下 ,AI能做出堪获诺贝尔奖的原创性科学发现。

10. 数学证明转化

AI能将数学文献中任何以自然语言书写的证明过程,转换为适合计算机符号验证的形式化表达。

以上十项任务中,主流的AI都有所涉及,不过在有的领域表现好,有的领域表现差。

目前,还从未有任何一个AI能够达到其中8项要求。

接下来的三年里,AI的这场赌注还真的让人有些期待。

AI自我改进,人类要「拔电源」吗?

最后,让我们对未来发出一点预警。

就如OpenAI研究员Daniel Kokotajlo所预测,未来几年内,如果AI取代了人类AI研究员,能以比人类更快的速度改进AI,这无疑太疯狂了。

打开网易新闻 查看精彩图片

其实就在最近,接连出现的不少研究都证明了这一点。

o1试图逃跑,防止被人类关闭。

打开网易新闻 查看精彩图片

对模型的安全性评估发现,当o1认为自己可能被关闭、替换为其他模型时,它试图泄露自己的权重

前沿的AI系统已经超越了自我复制的红线:它们可以自我复制,无需人类参与。

打开网易新闻 查看精彩图片

经过35个自行规划和行动步骤后,AI成功复制了实时副本,还能相互聊天。

打开网易新闻 查看精彩图片

甚至流氓AI可能形成AI群体,互相勾结、反对人类。

AI还学会了给自己买GPU,购买算力、自我改进、自给自足!智能体直接变身GPU富人。

打开网易新闻 查看精彩图片

Eric Schmidt曾表示,2-4年内,AI可能就会开始自我改进,一两年内,系统或许就能进行自己的研究。

那时,我们真的该认真考虑,是否要拔掉它的电源。

只不过AI可能并不会给我们这个机会,毕竟现在这些都是「智能化」控制的了……

打开网易新闻 查看精彩图片

参考资料:

https://x.com/OfficialLoganK/status/1873768960975671296

https://x.com/slow_developer/status/1873808775640920495

https://x.com/GaryMarcus/status/1873766399618785646

打开网易新闻 查看精彩图片