作者|Jimmy

来源|AI先锋官

AI Agent已经成为2025年AI最重要的赛道。

黄仁勋称它是“自动化中的自动化”,更多人认为,最有可能通往AGI的道路就是AI Agent。

但 AI agent 定义很多,小编希望通过以下整理,做一些通俗的呈现。

简单来说,AI Agent是一个能感知、思考、行动的人工智能系统。它可以自主完成特定任务,不用你手把手教,全程“自己想办法搞定”。

假如你是一个玩具厂的老板,那么当下应该生产什么样的玩具,一定是你要经常考虑的问题,但如果你直接把这个问题抛给 AI大模型,那大概率会得到一堆看似详细分析,实则“听君一席话,如听一席话”的内容。

也就是说,对于这种决策性的任务,通过 AI 大模型几乎不可能得到有价值的结果。

所以,如果我们要让大模型具有进行决策的能力,就要让大模型尽可能地模仿人脑,实施从“搜集信息-分解目标-推导问题-采取行动”的决策流程。

AI专家们把人类的这种思维过程形象地称为“思维链”。而AI agent正是基于 AI 大模型,试图对人类行为模仿的一种尝试。

所谓“agent”,本意即为“代理”的意思,让AI代理人类来完成推理的行动过程。

打开网易新闻 查看精彩图片

回到上面那个玩具店老板的场景。

我们将“玩具店老板”角色代入AI agent中,通过提示词,让它寻找当下适合生产的玩具款式,它会如此工作:

1. 首先会调用自己的工具模块,其中包含网络访问接口,数值计算接口,文件读取,数据库访问等各大功能,来搜集网络信息,例如当下玩具的流行趋势,适用于生产玩具的材料等。

2. 下一步它会将这些信息拆分,剔除一些虚假或是过时的信息并根据这些信息进行推导,并拆分成数个小目标,以及要执行的动作,这就是AI agent的动作和计划模块。

3. 到这里,AI agent的“脑”中就形成了低熵且准确的信息,据此明确自己下一步的行动和目标。

例如,在搜集到当下流行的玩具是机器人,AI agent就将机器人分解为款式,生产原料等小目标,并明确了下一步的行动是推导出最适合自己生产的机器人,

如此循环往复,机器推理的齿轮开始转动,不断进行着对人类推理行为的模仿,而由于每次递归推理都需要之前的计划和动作的结果,所以AI agent系统还有一个至关重要的记忆模块。

这便是AI agent的大致工作模式。

对于该工作模式,agen.cy创始人Alex Reibman 有过一个简单的概括:

-将大语言模型与工具调用相结合。

-大语言模型本身只能聊天,给出文本响应

-当赋予它改变世界状态的能力时,它就变得具有代理性

-正如人类因为能使用工具而具有智能,agent因为能使用工具而成为智能程序。

表现方式上,目前市场上的Agent主要有四类:

1.AI协同工具(co-pilots) - 例如与数据对话;

2. 客服机器人或支持机器人 - 能自主进行对话

3.AI软件工程师 - 能自主编写程序

4. 完全自主的agent - 更具探索性,给定高层次目标后可自主解决问题,通常是特定领域的,涉及许多不同类别。

 一文带您看懂AI agent
打开网易新闻 查看更多视频
一文带您看懂AI agent

AI agent为何被如此看好呢?

因为它正是对我们人类在解决复杂问题时的思维方式,以及工具使用行为的完整模仿,因此,很多人相信它是一种极有可能实现AGI的方法。

而除了对标人脑的语言模型,AI agent系统中很多都是我们普通人完全能搞定的常规技术。

因此,我们完全可以通过创意,或者优化手段做出令人眼前一亮的AI agent。

所以,大家普遍认为这是大模型时代,普通人也能玩转的领域。

但也不乏反对者,他们认为,AI agent不过是一个极具科幻色彩的泡沫而已。

如上,整个AI agent的理论都基于一个美好的假设,即语言模型拥有极强的推理能力,但以目前语言模型的能力来看,这个基础显然还不够牢固。

前面小编举例的场景,只是为了说明而假设的理想情况,而现实可能是,十次推理中只有一到两次能得到我们想要的结果。

所以,各位认为未来AI agent的前景怎样?欢迎评论区交流!

往期文章回顾