文 | 适道

如果说LLMs是“人类智慧”,那么AI Agent就是“使用火燧”,引领人类文明进入下一个时代。

2024年,AI Agent称得上最火热的概念。一方面,大模型赛道降温,并呈现出赢家通吃的局面;另一方面,AI Agent则是大模型应用落地的最佳形式,其能够解决LLMs在具体应用场景中的局限性。

那么,当前AI Agent采用现状如何?哪些领域会率先冲出来?

我们结合两份重量级报告——LangChain发布的State of AI Agents,以及Langbase发布的2024 State of AI Agents进行梳理,试着寻找AI Agent在开发、采用过程中的关键问题。

LangChain调查了1300多位专业人士,职业包括工程师、产品经理、业务领导和高管;行业分布:科技(60%)、金融服务(11%)、医疗保健(6%)、教育(5%)、消费品(4%)。报告链接https://www.langchain.com/stateofaiagents

打开网易新闻 查看精彩图片

Langbase调查了3400多位专业人士(100多个国家),职业包括C级高管(46%)、工程师(26%)、客户支持(17%)、MKT(8%)。报告链接https://langbase.com/state-of-ai-agents

打开网易新闻 查看精彩图片

具体内容如下:

1、谁在采用AI Agent?

LangChain调查显示:约有51%的受访者已经在生产环境中采用了AI Agent;78%的受访者计划在近期将AI Agent引入生产应用。

按规模看,员工人数为100-2000的中型企业最为积极,采用率达到63%;按行业看,90%的非科技公司已经部署或计划部署AI Agent,这与科技公司(89%)旗鼓相当。

打开网易新闻 查看精彩图片

Langbase调查显示:目前,AI(非AI Agent)的实验用途比例远远大于生产用途,虽然后者在稳步增加中。

打开网易新闻 查看精彩图片

2、AI Agent基座大模型哪家强?

Langbase调查显示:OpenAI(76%)占据主导地位;谷歌(59%)正迅速崛起,成为其强劲的竞争对手;Anthropic(47%)紧随其后。Meta的Llama、Mistral和Cohere影响力不高,但增长势头不容忽视。

打开网易新闻 查看精彩图片

各家大模型的采用情况如下:

OpenAI在技术和营销应用处于领先地位,同时也是翻译能手;

Google在健康和翻译领域表现相当出色,展示其在语言和医学领域的强大实力;

Anthropic是处理技术任务的高手,但在营销和翻译方面的使用率较低;

Mistral在技术和科学领域表现不错,不过是个偏科生;

Meta被广泛应用于技术和科学领域;

Cohere在多个领域的齐头并进。

打开网易新闻 查看精彩图片

3、选择AI Agent基座大模型受哪些因素影响?

Langbase调查显示,准确性(45%)是最重要的因素,其次是安全性(24%)和可定制性(21%),成本(10%)影响相对较小。(注:与“企业采用AI Agent有何顾虑”基本一致)

打开网易新闻 查看精彩图片

4、企业在哪些场景采用AI Agent?

LangChain调查显示:研究与总结(58%)、个人生产力工具(53.5%)、客户服务(45.8%)。

打开网易新闻 查看精彩图片

该结果显示——人们希望将耗时任务交给AI Agent。

知识过滤器:AI Agent能够快速提炼关键信息。在文献综述或研究分析中,人们无需自己手动筛选海量数据;

生产力加速器:AI Agent可以协助安排日程、管理任务,提升个人效率,让人们专注于更重要的工作;

客服神助攻:AI Agent帮助企业更快地处理客户咨询、解决问题,大幅提升团队的响应速度。

Langbase调查显示:自动化、简化是企业采用AI的首要目标,其在效率和流程简化方面受益;定制化解决方案、提升协作能力则反映了大模型日益增长的灵活性,以及消费者对系统共享访问的兴趣。

打开网易新闻 查看精彩图片

在具体场景上,Langbase调查显示

AI大模型在软件开发(87%)应用最广泛;

其次是文本摘要(59%)、市场营销(50%)、IT运营(48%)、客服(43%);

最后是人力资源(26%)、法律合规(15%)等领域。

值得注意的是,该结果与上述LangChain的调查有些出入。主要原因是——Langbase的提问方式是AI大模型,而非AI Agent。

打开网易新闻 查看精彩图片

5、在生产中采用AI Agent存在哪些顾虑?

LangChain调查显示,性能质量(41%)是首要关注点,其重要性远超成本(18.4%)和安全(18.4%)等因素。

打开网易新闻 查看精彩图片

AI Agent依赖LLM“黑盒”控制工作流程,这会带来不可预测性,增加出错风险。因此,团队难以确保其Agent 能否始终提供准确、符合上下文的响应。

对于小企业而言,性能质量尤其重要——45.8%的小企业将性能质量列为主要关注点,而成本因素仅为 22.4%。

对于必须遵守法规,要敏感地处理客户端数据的中大型企业来说,安全问题也很普遍,超过了成本因素。

打开网易新闻 查看精彩图片

除了上述因素,LangChain在书面回复中发现,团队还面临知识、时间难题。

知识不足:许多团队缺乏构建和部署 AI Agent的专业技能,特别是在特定应用场景下的实现。员工们还要苦练专业技能,以高效利用AI Agent。

时间有限:构建可靠的AI Agent需要投入大量时间成本,包括调试、评估和模型微调等环节。

Langbase调查显示:复杂的扩展和部署过程是阻碍采用的首要问题;其次是数据隐私和安全合规性;缺乏监控工具、高昂的基础设施成本也阻碍了技术的落地应用。

打开网易新闻 查看精彩图片

6、AI Agent开发相关问题有哪些?

Langbase调查显示:在生产环境中部署LLM和AI Agent面临关键挑战,包括定制化难度高、缺乏用于质量保证的评估方法,可重复使用的基础设施不足。碎片化工具、集成问题以及可扩展性限制进一步加剧困难,突显出构建简化流程和强大支持工具的必要性。

打开网易新闻 查看精彩图片

开发者将AI Agent的版本控制视为开发平台最重要的功能。强大的SDK、库生态系统、本地开发环境也受到关注。

打开网易新闻 查看精彩图片

大多数受访者需要多代理RAG能力以提高上下文信息处理;评估工具对于确保AI系统按预期工作同样很重要;多代理流水线也是在生产中实现复杂任务的关键技术。

打开网易新闻 查看精彩图片

7、对AI Agent有哪些展望?

LangChain调查显示:企业在采用AI Agent,既有新的期待,也会面临持续的挑战。

新的期待:

处理多步骤任务:AI Agent具备更深入的推理和上下文理解能力,能够应对复杂任务。

自动化重复性任务:AI Agent被视为自动化日常任务的关键工具,释放人力投入更具创造性的工作。

任务分配与协作:优化任务分配,确保合适的Agent在正确的时间处理特定问题,尤其在多Agent系统中。

类人推理能力:不同于LLMs,AI Agent能追溯并优化自己的决策,根据新信息调整策略,类似人类的思考过程。

打开网易新闻 查看精彩图片

主要挑战:

Agent的黑盒机制:工程师发现,他们很难向团队和利益相关者解释 AI Agent 的功能和行为。尽管可视化步骤有助于理解到底发生了什么,但 LLM 的内部机制仍然是个黑盒,增加了解释的难度。

重点关注:

对开源AI Agent的兴奋:许多人对开源AI Agent 表现出浓厚兴趣,认为集体智慧能加速创新。

期待更强大的模型:大家期待更高级的 AI Agent,由更强大的模型驱动,以更高的效率和自主性处理复杂任务。

打开网易新闻 查看精彩图片

结语

从企业的采用意愿来看,2025年或将成为AI Agent的爆发元年。

从爆发领域来看,软件开发、客户服务、市场营销等领域将率先跑出种子选手。目前已知的就包括编程神器Cursor、AI Coding“鼻祖”Replit等等。

值得关注的是,这两份报告均揭示出当前AI Agent落地的最大难点——准确性,甚至连成本因素都名列二、三位。

一个办法是等待“至尊”大模型出现,但这取决于巨头们的能力边界。而在某种程度上,‌AI Agent的出现本身就是为了解决LLM在具体应用场景中的局限性。因此,开发者需要尽可能地在记忆、规划、工具使用等其他技术栈下功夫。

如果不能迅速实现,我们也可以换个思路:短期内商业化成功的AI Agent,不一定是看起来“代理化”程度最高的产品;而是能够平衡性能、可靠性,以及用户信任的产品。

换句话说,如果做不到完全自主,开发者需要从一开始考虑如何将人类员工融入其中,做到准确性万无一失。

正如吴恩达的观点,形容词“Agentic”比名词“Agent”能更好地帮助我们理解这类智能体的本质。如同自动驾驶汽车L1-L4,Agent的进化也是一个过程。或许,一个确定的趋势是先拥有AI Copilot,再拥有AI Agent。只不过,Copilot这个词的存在感可能会降低,转而被“少量Agentic能力”代替。