周三早高峰,油箱灯亮了。我没碰屏幕,说了句"找附近加油站",导航立刻跳出三个选项,距离、评分、预计到达时间全标在路线上。点一下,路线自动更新。全程眼睛没离开过路面。
这是Gemini接管Android Auto后的日常。Google Assistant时代,我得确认一堆弹窗;现在Gemini直接给结果,让我做最后决定。这种"自然语言+即时执行"的组合,把车载语音从玩具变成了工具。
不过有个前提:先去Gemini设置里打开Google Workspace开关。路径是Gemini Settings > Personal Intelligence > Connected Apps。没开这个,后面的玩法都用不了。
找加油站和餐厅只是基础操作。我说"找回家路上的药店",它能理解"回家路"指的是哪条;说"找上班路线上的充电桩",它也知道"上班路线"是我每天走的那条。Gemini在背后查Maps数据库,但把选择权留给我。
更意外的是YouTube Music的联动。以前开车听歌,要么手动翻歌单,要么只能喊"播放XX歌手的歌"。现在我可以直接说"放首放松的",或者更抽象的"放今年奥斯卡颁奖礼上放过的那首歌"——它真的能找到。这种基于场景而非精确歌名的检索,改变了我在车里消费音乐的方式。
Calendar集成是另一个高频场景。早上上车,问一句"我今天有什么安排",Gemini会按时间线念出来,包括地点和参会人。如果下一个会议在另一个地方,它还会问要不要现在导航过去。这种"信息+行动"的连贯性,比单纯查日程再手动开导航省了好几步。
Keep笔记的语音速记我也用得很多。等红灯时想到的事,直接说"记下:下午记得给供应商发邮件",它会存进Keep并打上语音标签。到公司后打开App,待办事项已经躺在那里。
这些指令的共同点是什么?它们都不是"查询"而是"执行"。不是告诉我附近有什么,而是直接规划路线;不是显示歌单让我选,而是直接播放;不是打开日历让我看,而是念完再问要不要导航。
Google Assistant时代,语音交互的终点是"显示信息";Gemini时代,起点就是"完成任务"。这个转变让Android Auto从手机的延伸,变成了真正适合驾驶场景的操作系统。
当然,它还不完美。有时候对复杂指令的理解会跑偏,多条件查询偶尔会漏掉其中一个。但相比两年前必须精确背诵指令格式的体验,现在的容错率和自然度已经不在一个维度。
如果你也是Android Auto用户,建议从这三条开始试:找沿途设施、按场景点歌、日程联动导航。开一周后,再换回原来的方式,会明显感觉到 friction——那种"我知道它能做,但懒得伸手去点"的烦躁。
车载交互的终极形态,可能就是"说话即完成"。Gemini还没完全到达,但方向已经对了。
热门跟贴