打开网易新闻 查看精彩图片

最近我在想一个问题:为什么很多 AI 功能明明很强,但我平时并不会天天打开它?

所以我觉得,下一波 AI 产品体验的变化,可能不只是模型能力变强,而是 AI 会越来越多地藏进用户原本的操作里。用户不需要特意打开一个 AI App,也不需要认真写 Prompt,而是在做原本那件事的时候,被 AI 顺手帮了一把。

这也是我最近比较关注端侧小模型的原因。

这些能力单独看,好像都不算特别震撼。但它们有一个共同点:离用户很近,而且使用频率很高。

过去很多 AI 功能的问题,不是“不能做”,而是“用起来太重”。你拍一张图,要等云端识别;你说一句话,要等服务器返回;你想让输入法帮你润色,还会担心内容会不会上传;你想离线翻译,但没网的时候体验就不稳定。

每一次等待、授权、联网、加载,都会让用户觉得 AI 有点打扰。时间久了,用户就会从“这个功能好厉害”,变成“算了,我自己来吧”。

端侧小模型真正解决的,可能不是“AI 能不能更惊艳”,而是“AI 能不能更顺手”。

这也是为什么我不太愿意只用模型参数去看 AI 产品。参数当然重要,但用户最终感知到的,往往是另一些东西:它是不是够快?会不会打断我?能不能在没网的时候用?我的数据会不会被上传?它出现的时机是不是刚刚好?

如果端侧小模型继续成熟,AI 功能的出现方式会发生变化。

用户甚至不一定觉得自己在“使用 AI”,只是觉得这个功能更聪明了。

这和过去很多 AI 产品的思路不太一样。过去我们经常把 AI 做成一个入口,一个按钮,一个独立助手。但端侧 AI 更像是一种底层能力,它不一定站在台前,而是渗透进拍照、输入、阅读、搜索、办公、翻译这些原本就存在的场景里。

从这个角度看,未来 AI 产品的竞争,可能不只是“谁的模型更强”,而是“谁能把 AI 放在最合适的位置”。

再比如输入法改写,用户也不一定需要一段很长的 AI 生成内容。他可能只是想把一句话改得更礼貌一点、更清楚一点,或者不要那么生硬。这种场景如果每次都要跳转到另一个 App,体验就断了。

所以我觉得,端侧小模型最大的价值,是让 AI 从“专门使用”变成“顺手发生”。

所以未来更合理的形态,应该不是端侧替代云端,而是端侧和云端重新分工。

端侧负责第一层理解和即时响应,比如识别、分类、摘要、改写、提醒、基础翻译。云端负责更复杂的任务,比如深度推理、长内容生成、多轮任务规划、多工具调用。这样既能保证速度,也能控制成本,还能让用户在隐私上更安心。

这件事放到产品设计里,其实会带来很多新的问题。

哪些任务适合在本地完成?哪些任务必须上云?什么时候要让用户知道 AI 正在处理?什么时候应该无感完成?如果本地结果不够好,要不要提示用户调用云端增强?如果用户内容比较敏感,产品要怎么表达安全感?

这些问题,可能比单纯讨论模型能力更接近真实产品。

我现在越来越觉得,AI 产品真正难的地方,不是做一个“看起来很智能”的功能,而是把智能放到合适的位置。放早了,会打扰用户;放晚了,用户已经自己完成了;放重了,用户嫌麻烦;放轻了,又没有明显价值。

端侧小模型之所以值得关注,是因为它让 AI 有机会更靠近用户的真实动作。

过去 AI 产品很喜欢强调“我能生成什么”。但未来很多高频 AI 能力,可能更像是在回答另一个问题:我能不能在你需要的时候,马上出现,而且不打扰你?

这也是我觉得端侧小模型可能成为分水岭的原因。它未必是最热闹的方向,但很可能是 AI 从“新鲜感”走向“日常感”的关键一步。

我更想讨论的是:以后我们还会专门打开一个 AI App 吗?

还是说,AI 会慢慢变成手机、输入法、相册、浏览器、办公软件里的默认能力?

我个人更倾向后者。真正高频的 AI,可能不是被打开的,而是被顺手用到的。