打开网易新闻 查看精彩图片

去年6月,Google在AI Mode里藏了个叫Search Live的功能。当时没几个人注意,现在它突然铺到200多个国家和地区——基本上,AI Mode能用的地儿,它都能用了。

这功能到底在干嘛

这功能到底在干嘛

打开Google App,搜索栏底下有个Live图标。点进去,界面变成语音对话模式。你问问题,它用语音回答,还能接着聊,或者甩网页链接让你自己挖。

摄像头也能派上用场。家里新买了台路由器不会装?镜头对准设备,直接问"这玩意怎么连"。Google Lens里同样能找到入口,底部点Live就行。

整个交互逻辑跟Gemini Live几乎一模一样——但Google特意把它塞进了搜索框,而不是放在Gemini App里。

这个区分很微妙。Gemini Live更像是个通用助手,陪你闲聊、写代码、 brainstorm。Search Live则锚定在"搜索"场景:你有具体问题,要快速答案,可能还要溯源查证。语音是手段,不是目的。

为什么现在全面铺开

为什么现在全面铺开

打开网易新闻 查看精彩图片

Google的AI Mode本身还在扩张期。去年5月上线时仅限美国,后来慢慢放开。Search Live作为子功能,跟着母产品的覆盖节奏走,逻辑上说得通。

但时间点值得玩味。OpenAI的ChatGPT语音模式已经跑了一年多,Apple Intelligence也在推Siri的改版。语音交互这个战场,Google不能再拖。

更关键的是数据。语音搜索的查询长度平均比打字长3倍,用户意图也更明确——这对广告变现是好消息。Google搜索业务占母公司Alphabet收入57%,每一个交互层改动都牵扯真金白银。

实际用起来什么感觉

实际用起来什么感觉

根据Google官方描述,Search Live支持后台运行。你可以切到别的App继续说话,比如一边看菜谱一边问"这步什么意思"。

不喜欢语音?有Transcript(文字记录)模式。这个设计照顾了公共交通场景——你不想让周围人知道自己在搜"痔疮怎么治"。

语言覆盖方面,Google说"所有AI Mode支持的语言"都能用。但没给具体清单,实际体验可能因地区而异。印度用户能用印地语喊一嗓子,印尼用户可能还得等等方言支持。

打开网易新闻 查看精彩图片

跟Gemini Live的左右互搏

跟Gemini Live的左右互搏

Google现在有两套几乎一样的语音AI:一个在搜索里,一个在Gemini里。用户难免困惑。

我的理解是,这是Google的"场景切割"策略。搜索框处理"我有明确问题",Gemini处理"我想随便聊聊"。但边界正在模糊——Search Live也支持多轮对话,Gemini Live也能查网页。

长期看,两者可能合并,也可能分化出更清晰的定位。对普通用户来说,眼下最实在的区别是:Search Live不用额外装App,Google App人人手机里有。

Google发言人对外媒的表述很克制,只说"让搜索更自然"。但产品动作透露的野心更大——搜索框从"输入关键词"变成"开口说话",这是交互范式的迁移。

200个国家铺开之后,下一个观察指标是什么?可能是"后台运行"的使用率——如果大量用户真的在 multitask 场景下持续调用,说明语音搜索从"尝鲜"变成了"习惯"。

你最后一次用语音搜东西,是什么时候?