打开网易新闻 查看精彩图片

OpenAI在9月发布了其最新的人工智能系统,并做出了大胆承诺。ChatGPT背后的公司展示了最新的大型语言模型(LLM)套件o1,称其具备“全新水平的AI能力”。OpenAI声称,o1的工作方式比之前的LLM更接近人类思维。

这一发布加剧了长期以来的争论:机器何时能完成人类大脑能处理的所有认知任务,如任务推广、抽象推理、规划以及选择调查和学习领域?通用人工智能(AGI)或能解决气候变化、流行病及癌症等疾病治疗等难题,但也带来不确定性和风险。蒙特利尔大学深度学习研究员Yoshua Bengio表示,滥用或失控的AI可能引发糟糕后果。

过去几年LLM的革命让人猜测AGI可能近在咫尺。但研究人员指出,考虑到LLM的构建和训练方式,它们本身不足以实现AGI。然而,LLM的新功能,尤其是当它们规模足够大时,让一些研究人员认真考虑AGI可能已经出现或即将出现。

LLM通过训练学习预测文本中的下一个标记,使用转换器架构了解远距离token的影响,从而模仿人类解析语言。这种方法在多个领域取得巨大成功,包括生成解决自然语言描述问题的程序、总结学术文章和回答数学问题。

OpenAI表示,o1融入了思路链(CoT)提示,成为其强大功能的基础。但研究人员指出,尽管o1在某些任务上表现出色,如在国际数学奥林匹克资格考试中正确解答了83%的问题,但它仍有局限性,不构成AGI。例如,在需要规划的任务中,当步骤数增加时,o1的性能会迅速下降。

Chollet设计了一个抽象推理和概括测试来衡量AGI的进展,发现o1-preview也有类似局限性。他认为,无论规模大小,大模型在解决问题方面的能力都是有限的,因为它们无法重新组合所学知识来解决新任务。

大型语言模型(LLM)能否引领我们走向通用人工智能(AGI)?这是一个备受关注的问题。尽管底层的Transformer架构在处理文本、图像和音频等多种类型的信息方面展现出强大的能力,但LLM是否真能实现AGI,目前仍存在争议。

一方面,Transformer架构非常适合学习具有低Kolmogorov复杂度的数据中的模式,并且这种适用性随着模型的大小而增长。这意味着LLM在模拟各种可能性方面表现出色,增加了训练算法发现问题合适解决方案的机会。然而,另一方面,基于Transformer的LLM也存在局限性。例如,用于训练模型的数据可能会耗尽,而且随着模型规模的扩大,其收益并不像以前那么大。

此外,虽然已有报告声称在大模型内部出现了基本的世界模型,但这些模型可能并不可靠。研究人员发现,当今的人工智能系统学习的世界模型在某些情况下无法适应新情况,这表明它们的世界模型可能并不准确。

另一个关键问题是反馈的重要性。当前的大模型缺乏内部反馈机制,这限制了它们在某些任务上的表现。尽管一些研究人员尝试在LLM上添加外部验证器来提高性能,但这种方法需要为每个任务设计定制的验证器,缺乏通用性。

尽管存在这些挑战,但研究人员仍在努力探索实现AGI的新方法。例如,一些研究正在探索如何创建具有不同架构的人工智能系统,这些系统能够同时构建世界模型以及使用它们进行推理和规划所需的模块。此外,未来的系统可能会更加高效,能够决定需要从环境中采样多少数据来构建世界模型并做出合理的预测。

关于AGI是否可能实现的问题,计算机科学家表示,理论上没有障碍。然而,人们对于AGI的到来时间几乎没有共识,估计从几年到至少十年不等。即使AGI系统被创造出来,它也需要时间才能充分发挥其潜力。因此,我们需要保持谨慎和乐观的态度,继续探索和研究AGI的可能性。

同时,我们也应该关注AI系统的安全性和监管问题。研究必须专注于训练能够保证自身行为安全性的模型,并建立机制来计算模型违反某些特定安全约束的概率。此外,政府也需要加强监管,确保AI系统的安全使用。只有这样,我们才能在实现AGI的道路上迈出坚实的步伐。

他山石智库人工智能领域专家推荐:

打开网易新闻 查看精彩图片

张钹

  • 中国科学院院士
  • 中国人工智能奠基人,参与创建了中国第一个人工智能学科,首个人工智能实验室
  • 清华大学计算机系教授、博士生导师、人工智能研究院名誉院长
  • 生成式通用智能专家咨询委员会荣誉主任
  • 微软亚洲研究院技术顾问、华为昇腾荣誉顾问
  • 俄罗斯自然科学院外籍院士

打开网易新闻 查看精彩图片