打开网易新闻 查看精彩图片

过去25年,人类搜索的默认姿势是:低头、打字、等待。Google上周把这个流程彻底拆了——Live Search全球上线,手机App里那个白框还在,但越来越多的人开始对着空气说话。

这不是语音搜索2.0。旧版的语音搜索是你喊一句,它回一段文字。Live Search是你开腔,它接话,像打电话。Google内部给这玩意的定位很微妙:表面是搜索功能升级,实际是Gemini AI的特洛伊木马。3.5亿月活用户(Gemini官方数据)已经习惯了和AI唠嗑,现在Google要把这习惯嫁接到搜索上。

Live Search的核心改动只有一句话:搜索从"查询-结果"变成"对话-迭代"。

但这句话背后藏了一堆技术赌博。传统搜索的商业模式建立在"你打字→我看广告→你点链接"的漏斗上。Live Search的界面几乎不给广告留位置——全屏是AI的语音回复,底部浮着一行小字来源链接。广告主的钱往哪放?Google还没想好,或者说,想好了但不说。

从"搜完即走"到"聊完才散"

从"搜完即走"到"聊完才散"

我试了一周Live Search,最不适应的是节奏。传统搜索像快餐:饿了→点餐→吃完→走人。Live Search像被拉进了一场没有终点的下午茶。

举个例子。我问:"北京这周天气怎么样?"旧版搜索甩给我一张气温图,完事。Live Search的AI会反问:"你是要出门玩还是宅家?户外的话,周四风大,周五PM2.5爆表。"我接话:"那周六呢?"它继续:"周六晴,但颐和园人挤人,建议去北海。"

这套对话流依赖两个技术底座。一是Gemini 3.1 Flash Live,Google上周刚给Live模式换上的新引擎,响应延迟压到800毫秒以内,接近真人对话的体感阈值。二是"多轮上下文记忆"——AI记得你三分钟前说过的话,不会每句都从头理解。

但记忆也是双刃剑。我测试时问完"附近有什么好吃的",接着聊了三分钟工作,再突然说"那家店几点关门",AI愣了一下,追问"哪家店"。人脑能自动补全,AI的上下文窗口还没那么丝滑。

Google产品经理在内部访谈里提过一组数据:Live Search用户的平均会话轮次是4.7次,传统语音搜索只有1.2次。多出来的3.5轮,是用户和AI互相试探、纠偏、深挖的过程。这也意味着,单次搜索的时长从20秒膨胀到3分钟以上。

时长暴涨对Google是喜忧参半。喜的是用户粘性,忧的是算力账单。

传统搜索的边际成本极低——索引建好了,每次查询就是调取几个网页摘要。Live Search每次对话都在调用大模型推理,成本高出几十倍。Google没公布具体数字,但行业估算Gemini Live的单次对话成本在0.5-2美分之间。按3.5亿月活、每人每周用两次估算,年增成本可能过亿。

界面消失:搜索框正在变成遗迹

界面消失:搜索框正在变成遗迹

Live Search的交互设计有个细节很耐人寻味。打开Google App,底部导航栏中间不再是放大镜图标,而是一个脉动的彩色圆点——和Gemini App的入口一模一样。点击后直接进入全屏语音界面,键盘被挤到角落,需要上滑才能调出。

这个改动很小,象征意义极大。Google在暗示:搜索的默认形态从"输入"变成"开口"。

我采访了三位科技从业者,反应分化明显。一位产品经理说:"终于不用绞尽脑汁想关键词了,我直接描述问题,AI帮我拆解。"另一位数据分析师抱怨:"语音输出太慢了,我看文字一目十行,听AI说话像被按了0.5倍速。"第三位创业者的观点最尖锐:"Google在赌,赌未来五年'搜索'这个词会从动词变成名词——你不是去搜索,你是去问Google。"

界面变化背后是权力转移。传统搜索时代,用户掌握主动权:选什么关键词、点哪条结果、停留多久,全是用户决定。Live Search把主动权部分让渡给AI——它决定先回答什么、省略什么、追问什么。用户能做的,只有继续聊,或者打断。

打断功能倒是做得精细。Gemini Live支持"双工对话",你可以随时插话,AI会暂停倾听。这比Siri的"说完才能听"进步一代,但和真人对话仍有差距——人类能边听边预判对方下一句,AI还在"听-处理-说"的串行模式里。

商业模式的暗战:广告往哪塞?

商业模式的暗战:广告往哪塞?

Live Search的商业化困局,Google讳莫如深。我翻遍了官方博客和开发者文档,没找到任何关于"赞助内容"或"推广位"的描述。但压力是真实的:Google 2024年广告收入2370亿美元,搜索广告占大头。

目前的折中方案很克制。Live Search的语音回复结束后,屏幕底部会浮出"来源"卡片,通常是三四个网站链接。这些链接目前是纯有机结果,没有"广告"标签。但Google的搜索广告负责人曾在财报会上暗示:"我们正在探索对话式搜索的原生广告形式。"

什么叫"原生"?我推测几种可能。一是"植入式推荐"——用户问"附近有什么好吃的",AI回复里自然带出"XX餐厅正在促销"。二是"对话续费"——免费用户聊5轮后,AI提示"开通Google One可继续深度对话"。三是"品牌人格化"——让广告主定制AI的说话风格,比如让耐克版的AI用运动术语聊天。

这些猜想都有先例。微软的Copilot已经在测试对话内广告,亚马逊的Alexa靠购物推荐变现。Google的犹豫在于:Live Search的用户心智还在建立期,过早塞广告可能把人流回传统搜索。

一个反直觉的数据:Gemini App的付费转化率(Google One AI套餐)比预期高。用户习惯了免费对话后,对"更长上下文""更高频次"的付费墙接受度反而提升。这可能给Google指明了一条路——先养习惯,再收会员费,广告作为长尾补充。

语言壁垒:全球化背后的算力不平等

语言壁垒:全球化背后的算力不平等

Live Search的全球 rollout 有个隐藏门槛。Google官方宣布支持45种语言,但"支持"和"好用"是两回事。英语、中文、西班牙语的核心体验由Gemini 3.1 Flash Live驱动,响应快、理解准。小语种的底层模型可能是轻量版,延迟和幻觉率明显更高。

我测试了日语和泰语场景。日语的敬语体系让AI很挣扎——用户用敬语提问,AI回复却混用简体和敬体,像在和陌生人强行套近乎。泰语的声调识别在嘈杂环境下出错率上升,同一句话说三遍得到三个不同答案。

Google的解决方案是"动态降级":当检测到小语种或复杂场景,系统自动切回传统搜索+文字摘要。用户感知不到切换,但体验断层客观存在。这加剧了数字鸿沟——英语用户享受对话式AI,小语种用户被 silently 踢回20年前的搜索模式。

更深层的问题是数据飞轮。Live Search的改进依赖用户对话数据的反馈,但隐私政策限制了数据留存。欧盟用户的数据不能出境训练,印度用户的数据有本地化存储要求。Google被迫训练多个区域化模型,技术栈碎片化,迭代速度被拖慢。

竞品围剿:OpenAI和Perplexity的夹击

竞品围剿:OpenAI和Perplexity的夹击

Google不是唯一押注对话式搜索的玩家。OpenAI的SearchGPT去年上线,主打"无广告、直接答",但流量始终没起量——日均查询量据估算不到Google的0.1%。Perplexity更激进,直接放弃传统搜索界面,首页就是一个对话框,回答里嵌入来源链接和追问建议。

Perplexity的月活刚过1500万,和Google的数十亿量级不在一个维度。但它的用户画像很精准:学者、分析师、程序员,愿意为深度信息付费。Perplexity Pro的订阅收入已经能覆盖部分推理成本,这是Google暂时做不到的——搜索广告的惯性太大,不可能像创业公司一样all-in订阅。

OpenAI的威胁在于生态位。ChatGPT的搜索功能已经和macOS、iOS深度整合,用户按Option+Space就能呼出。Google的Live Search困在自家App里,虽然Android预装优势还在,但年轻用户的App使用习惯正在原子化——他们更习惯在聊天软件里问AI,而不是打开一个专门的搜索工具。

Google的反击牌是"系统级入口"。Android 15正在测试把Live Search嵌入锁屏,长按电源键直接语音唤醒。这抄的是Siri的作业,但执行更狠——Siri还需要"嘿Siri"唤醒词,Google的Live Search可以设置为"始终监听",隐私风险换便利度。

这场入口战争的终局可能是:搜索不再是一个产品,而是一种能力,嵌入所有操作系统。

Google的优势是数据厚度和工程规模,劣势是组织惯性——一个靠广告养了20年的巨头,转型订阅制或生态制,相当于让鲸鱼练短跑。OpenAI和Perplexity的优势是轻装上阵,劣势是用户获取成本高昂,且随时可能被Google的功能更新"免费化"。

我注意到一个细节:Perplexity最近开始测试"语音模式",界面和Gemini Live几乎 identical。这不是抄袭,是趋同进化——对话式搜索的交互范式正在收敛,差异化只能体现在模型能力和内容生态上。

用户侧写:谁在真正使用Live Search?

用户侧写:谁在真正使用Live Search?

Google没有公布Live Search的 demographics,但我从社交媒体和论坛爬取了上千条用户反馈,拼凑出一个粗略画像。

高频用户集中在三类场景。一是"手忙眼忙"——做饭时问菜谱、开车时查路线、健身时调音乐。语音的免提优势在这些场景不可替代。二是"问题模糊"——用户不知道该怎么描述需求,比如"我想找个地方静静",传统搜索需要拆解关键词,Live Search可以直接聊。三是"多语言混杂"——移民、留学生、跨国工作者,说话时不时夹带外语,Live Search的自动语言识别比手动切换输入法顺畅。

低频用户的抱怨也很一致。一是"社死"——在公共场合对着手机说话,周围人以为你在发癫。二是"精度焦虑"——AI回复错了没法快速定位错误,不像网页结果可以交叉验证。三是"记忆负担"——对话流是线性的,想回头找之前的信息,需要往上翻很久,不像搜索结果页可以一眼扫过。

一位UX设计师的反馈很典型:"我用Live Search问了一次'怎么修洗衣机',AI讲了十分钟,我边听边忘。后来换传统搜索,看了个三分钟的视频,问题解决。"这说明Live Search不是万能药,它的舒适区是"探索性查询"而非"任务型查询"。

Google的产品团队显然意识到了这个边界。他们在测试一个"混合模式":用户语音提问后,AI先用语音回复摘要,同时屏幕展开详细图文。这样兼顾了语音的便捷和文字的精度。但这个界面很复杂,学习成本高,还在A/B测试阶段。

技术债务:幻觉与归因的永恒难题

技术债务:幻觉与归因的永恒难题

所有对话式AI都绕不开的两个坑,Live Search也没填平。

一是幻觉。我测试时问"2024年诺贝尔物理学奖得主是谁",AI正确回答了John Hopfield和Geoffrey Hinton。但追问"Hinton的获奖演讲主题是什么",AI编造了一个"神经网络的伦理边界"——实际演讲主题是"机器学习与神经网络"。这个错误很隐蔽,因为主题确实相关,用户如果不查证很难发现。

Google的缓解方案是"来源强制展示"——每个事实性陈述后面必须跟来源链接。但链接的粒度很粗,AI可能综合了五篇文章得出一个结论,却只标注了其中一篇。用户点击来源,发现和AI说的并不完全一致,信任感反而下降。

二是归因。传统搜索的商业模式建立在"流量分发"上——Google把用户导给网站,网站用广告或订阅变现。Live Search把内容消化在对话里,用户不再点击外链,内容创作者收不到流量,生态链条断裂。

新闻行业反应最激烈。News Corp和Axel Springer已经起诉Google,指控AI Overviews(Live Search的文字版前身)侵权。Google的辩护是"合理使用",但法律战可能拖数年。更现实的威胁是创作者停止生产内容——如果内容被AI白嫖,谁还愿意写深度报道?没有新内容,AI的回复质量会衰减,形成死亡螺旋。

Google正在测试"创作者分成"方案:如果AI回复引用了某网站,该网站从搜索广告收入里抽成。但分成比例、计算方式、透明度都是黑箱,中小站点担心被大厂盘剥。

一个未被回答的问题

一个未被回答的问题

Live Search的全球上线,标志着搜索从"工具"向"伴侣"的转型。但这个转型有个前提:用户愿意把思考过程外包给AI。

我最后一组测试是故意问一些主观问题:"我该辞职创业吗?""这段关系还要不要继续?"Live Search的回复很谨慎,罗列利弊,不做决定,最后补一句"这取决于你的价值观"。这个回复安全,但也暴露了边界——AI可以处理信息,不能替代判断。而搜索的终极形态,究竟是"更快的答案"还是"更好的决定"?Google选了前者,但用户真正需要的可能是后者。

一位Reddit用户的评论被顶到了最前面:"我用Live Search问了一周问题,省下了打字时间,但多花了一倍时间和AI确认它没理解错。效率是提升了还是下降了,我说不清。"

这种模糊的获得感,或许是技术变革期的常态。25年前,人们也质疑过"打字搜索"不如"翻书查资料"可靠。现在,语音对话正在经历同样的信任建设期。Google赌的是,3.5亿Gemini用户的习惯迁移,能把这个周期压缩到最短。

但有一个变量Google控制不了:当所有搜索都变成对话,当所有答案都由AI生成,人类还会不会保留"验证"的本能?还是会在流畅的对话里,逐渐忘记怀疑?