Siri接入Gemini,意味着什么?Clawdbot(已更名为Moltbot),已经提前剧透了答案。

当Google在1月12日官宣Gemini将成为苹果基础模型与Siri底层技术支撑,很多人第一反应是:

Siri会不会终于变聪明了?

打开网易新闻 查看精彩图片

回归本质Gemini将让Siri不再是一个语音助手,而是开始向“系统级AI agent”开始转型。

这个转型之后的具象参照物,已经在当下出现了:Clawdbot。

打开网易新闻 查看精彩图片

过去十多年,Siri的能力边界有目共睹,能听懂明确指令、也能调用系统功能,但几乎无法理解复杂的语义也不具备任务规划能力。

这种以规则和关键词为核心的架构,在语音助手1.0时代是完全行得通的,而在当下大模型主导的人机交互时代,这种架构显然已经非常落伍,甚至让人觉得有点“智障”了。

打开网易新闻 查看精彩图片

Apple其实缺的并不是一个更大的模型,而是一套具备持久记忆、主动性且实现自动化的“智能范式”。

Clawdbot为什么突然火了

Clawdbot的走红,并不是因为它像Chatgpt那样会“聊天”,而是因为他让很多人第一次直观的感受到:

原来,AI可以不回答问题,而是直接替我把事都做完。

比如,我如果对Siri说“把今天的会议内容整理成一封邮件,发送给项目组”。

Siri的回答是:“我不确定你要编辑什么”

而Clawdbot会完成一整条链路:首先理解我的目标,然后拆解任务进而调用工具来处理拆解的任务,最终通过执行操作实现我的目标。

打开网易新闻 查看精彩图片

我来通过简单的思维模型来解释下Clawdbot的运作原理:

消息应用程序↔Clawdbot”网关“↔AI模型+工具。

这类产品就是我们最近一直听到的AI Agent。

打开网易新闻 查看精彩图片

AI Agent,不以“对话”为终点,而是以“完成目标”为目标,

Gemini驱动Siri的方向

Clawdbot的意义在于,它提前验证了一种能力结构:

理解意图→规划步骤→调用工具执行

像极了去年”豆包AI手机“想做的事情。

而这,也正是Apple计划通过Gemini注入Siri的核心能力。

不同的点在于,Clawdbot是外挂式程序,只是面向极客用户的Agent;而Siri是原生操作系统,面向的是所有用户的系统能力。

打开网易新闻 查看精彩图片

简单来说,Gemini成为Siri的推理内核后,Siri将首次具备类似Clawdbot的”任务型智能“功能。

比如,你可以要求Siri把我刚刚看的这篇文章总结一下,并存进备忘录内;或是下周出差那几天,把早上的闹钟统一推迟半小时。

这些操作,在Clawdbot上已经是可运行的Demo;而在Siri+Gemini体系中,将成为标准化、默认可用的系统能力。

为什么不是ChatGPT

2024年底(正式发布于12月的iOS 18.2),苹果首次在Apple Intelligence系统中集成了ChatGPT(GPT-4o)。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

在Apple的体系内ChatGPT仅仅是被定义为Siri的扩展插件,当Siri发现你的问题超出他的”常识库“时,Siri会主动询问:“你想让ChatGPT帮忙吗?”。

最终,苹果为何还是选择Gemini深度融入到苹果系统级层面。

相比于ChatGPT这类”对话型产品“,Gemini显然更强调多模态的理解、对工具的调用能力、任务规划能力以及系统级协同能力,而这些能力显然更接近Siri的目标角色。

自始自终,Siri就不是一个聊天对象,苹果始终希望Siri是一个能调度整个系统的入口,而Gemini则是这个调度系统的"智能中枢"。

打开网易新闻 查看精彩图片

再看看现在Clawdbot的流行也间接证明了一点:

其实已经有一部分用户已经准备好接受”AI代替我操作系统“的体验了。

打开网易新闻 查看精彩图片

当然Siri接入Gemini并不意味着Apple会放弃自研AI。

如今Gemini和ChatGPT依旧在苹果生态中各司其职。

从商业角度来看说,

在系统级智能这件事上,节奏比”完全自研“显然更重要。

打开网易新闻 查看精彩图片

Clawdbot展示的是AI agent的能力上限;

Gemini驱动的Siri,目标则是把这种能力规模化、系统化、标准化、常态化。

如果说现在的Siri是语音快捷方式的话,

那么下一代Siri,正在向一个真正的系统级AI Agent靠拢。

而Clawdbot,只是让这个未来,提前变的可见。