大多数AI应用只是套了个壳的聊天机器人。智能体是事后才想到的东西——一个硬塞进现有代码的聊天界面。用户让它做事,它道歉,然后解释自己做不到什么。

Agent原生架构完全颠覆了这个逻辑。

打开网易新闻 查看精彩图片

在Agent原生应用里,功能不是你写的函数,而是你描述的结果,由一个带着工具的Agent在循环中实现。我们在ClawGear就是这样开发的——运营着一家8个Agent的AI公司,CEO、CFO、CMO和工程团队全是AI Agent,通过Paperclip协调。以下是我们总结出的五条核心原则。

打开网易新闻 查看精彩图片

一、对等性

用户通过UI能做的任何事,Agent必须通过工具也能达成。

这是基础原则。没有对等性,其他都无从谈起。

假设你做了一个笔记应用,有漂亮的界面来创建、整理和打标签。用户让Agent:"创建一条笔记,总结我的会议,并标记为紧急。"

如果你做了创建笔记的UI,却没给Agent同样的能力,Agent就被卡住了。它可能道歉,或者问澄清问题——但它帮不上忙,尽管对人类用户来说这个动作 trivial 至极。

解决方案不是把UI按钮1:1映射成工具。而是确保Agent能达成同样的结果。有时需要专用工具(create_note),有时是组合原子能力(用write_file写到笔记目录并格式化)。

测试方法:任选用户能在UI里做的动作,描述给Agent。它能完成吗?如果不能,你就没有对等性。

二、颗粒度

优先使用原子原语。功能是Agent在循环中达成的结果——不是你写的函数。

工具是原语:读文件、写文件、运行命令、存储记录、发送通知。

功能不是函数。它是你在提示词里描述的结果,由拥有原语的Agent运行直到达成。

陷阱是制造"上帝工具"——classify_and_organize_files(files)、process_and_summarize_documents(docs)。这些看起来方便,但摧毁了可组合性。Agent无法 remix 上帝工具,只能按既定方式使用。

原子原语可以组合。read_file + write_file + search_files 能完成Agent能推理的任何文件操作。

三、透明性

暴露Agent状态,让用户能够信任和验证。

当用户看不到Agent在做什么,信任就崩塌了。"正在思考……"转30秒,然后给结果——这是黑箱。用户对结果没有 ownership。

透明意味着暴露:

打开网易新闻 查看精彩图片

• Agent当前在做什么(当前步骤)
• 它已经做了什么(已完成步骤、已创建产物)
• 它决定了什么以及为什么(决策轨迹)
• 它不确定什么(暴露不确定性,而非隐藏)

目标不是用日志淹没用户。而是让Agent的工作足够可读,让用户能在错误累积前抓住它们。

四、可控性

用户必须能够在关键决策点介入。

完全自主的Agent是可怕的。用户需要能暂停、检查、覆盖。这不是为了微观管理每一次操作,而是为了在重要节点保有 veto 权。

可控性意味着:

• 在不可逆操作前确认(发送邮件前、删除数据前)
• 在歧义处澄清("你说的是A还是B?")
• 在偏离时纠正("不,用这种方式做")
• 在完成后审阅("这是草稿,批准吗?")

关键是设计介入的时机——不是每一步,而是后果严重的节点。

五、可进化性

架构必须允许Agent随使用而改进,无需重写代码

传统软件:发现bug → 修复代码 → 部署。Agent原生软件:发现失败模式 → 调整提示词或工具 → 观察。

可进化性要求:

• 工具描述可热更新(无需重启)
• 提示词版本化与A/B测试
• 执行轨迹可回放分析
• 失败案例自动收集用于迭代

Agent不是写完就完的软件。它是持续学习的系统。架构要为这种持续学习提供基础设施。

这五条原则不是理论。它们是我们在Paperclip和ClawGear的血泪中磨出来的。从让AI当CEO到协调整个"公司"运转,每一次崩溃都指向同一个教训:别把Agent当聊天机器人 wrapper,把它当需要完整能力、透明度和控制权的协作者。

Agent原生架构不是未来 tense 的设想。它是现在进行时——只是大多数人还在用旧地图找新大陆。