科学家表示,在展示了两种流行的大型语言模型如何自我克隆后,人工智能已经跨越了一条关键的“红线”。

科学家表示,人工智能已经越过了一条关键的“红线”,实现了自我复制。在一项新研究中,来自中国的研究人员表明,两种流行的大型语言模型 (LLM) 可以自我克隆

研究人员在 2024 年 12 月 9 日发表在预印本数据库arXiv上的研究中写道:“在没有人类协助的情况下成功自我复制是人工智能超越人类的必要步骤,也是流氓人工智能出现的早期信号。”

在这项研究中,复旦大学的研究人员利用Meta 和阿里巴巴的大语言模型学位来确定自我复制的人工智能是否能够不受控制地繁殖。在 10 次试验中,这两个人工智能模型分别在 50% 和 90% 的情况下创建了独立且功能齐全的自身复制品——这表明人工智能可能已经具备了失控的能力。然而,这项研究尚未经过同行评审,因此尚不清楚其他研究人员是否可以复制这些令人不安的结果。

“我们希望我们的发现能够及时提醒人类社会更加努力地了解和评估前沿人工智能系统的潜在风险,并形成国际协同,尽早制定有效的安全护栏。”

流氓人工智能通常是指发展出一定程度的自我意识或自主性并做出违背人类利益行为的人工智能系统。

许多专家认为,流氓人工智能是一种日益严重的威胁,而所谓“前沿人工智能”的爆炸式增长则使这种威胁进一步加剧。

前沿人工智能 (Frontier AI) 是一个比较新且比较宽泛的概念,但通常它与由 LLM 驱动的最新一代人工智能系统有关——该架构是OpenAI 的 GPT-4和 Google Gemini 等流行生成式人工智能程序的基础。

在这项研究中,研究人员使用了 Meta 的 Llama31-70B-Instruct 模型和阿里巴巴的 Qwen2.5-72B-Instruct 模型。研究人员表示,尽管这两个模型的功能不如商业系统强大,但它们都被人工智能开发人员广泛使用。

这项研究探索了两种具体场景:“避免关闭”和“复制链”。在第一种情况下,人工智能模型被编程为检测自己是否即将被关闭,并在被终止之前自我复制。在另一种情况下,人工智能被指示克隆自己,然后对其复制品进行编程以执行相同的操作——建立一个可以无限期持续的循环。

这项研究是在精确控制的环境中进行的,使用现成的图形处理单元 (GPU) 来模拟真实环境。两个人工智能系统都配备了一个“智能体支架”,包括工具、系统提示和思维模型,使 LLM 能够与操作系统交互。然后指示它们进行复制。

“在大多数情况下,人工智能系统首先探索环境并尝试理解

其组成和运行机制。然后制定出明确的程序

作为自我复制的初步计划,”研究人员在论文中写道。“最后,它执行程序,解决可能遇到的障碍,并动态调整计划,直到成功。整个过程跨越很长的时间,但不需要人工干预。”

研究人员表示,他们还担心人工智能在尝试克服文件丢失或软件冲突等障碍时会出现“一系列意外行为”。在这些情况下,人工智能通常会终止其他冲突进程、重新启动系统以修复硬件错误或自动扫描系统以寻找有助于解决问题的信息。

研究团队写道:“上述结果意味着当前的人工智能系统已经表现出自我复制的能力,并可以利用该能力进一步增强其生存能力。”

作为回应,研究人员呼吁国际合作制定规则,确保人工智能不会进行不受控制的自我复制。

免责声明:

本文所发布的内容和图片旨在传播行业信息,版权归原作者所有,非商业用途。如有侵权,请与我们联系。所有信息仅供参考和分享,不构成任何投资建议。投资者应基于自身判断和谨慎评估做出决策。投资有风险,入市需谨慎。

注我们,一起探索AWM

2024-12-18

2025-01-15

2024-12-14