谷歌今天给智能家居助手换了个"大脑"。Gemini for Home语音助手正式接入Gemini 3.1模型,这意味着你终于可以一口气说完复杂指令,不用再像机器人一样拆分请求。

从"分步走"到"一口气"

打开网易新闻 查看精彩图片

这次升级的核心是高级推理能力。Gemini 3.1目前在Gemini应用里以"Pro"模型身份运行,也是Gemini Live的底层引擎。现在它被塞进智能家居场景,专门解决一个老毛病:语音助手听不懂长句子。

谷歌给出的例子很具体——你可以同时添加新购物项、更新已有清单,全程不用停顿。之前这类操作得分两次说:先"加牛奶",再"把鸡蛋改成六个"。

覆盖场景包括设备控制、设闹钟、建提醒、管日历。一句话能跨多个功能,是这次升级的真正卖点。

全量推送与网页端预告

Gemini 3.1已完成向所有早期体验用户的全量 rollout。谷歌没有提具体人数,但"fully rolled out"意味着测试阶段结束,准备进入更广用户群。

同步预告的还有"Ask Home"网页功能。home.google.com soon 会上线对话式搜索:查摄像头历史、看设备状态、创建自动化规则。这些功能将和现有的实时画面查看、开关设备、控制自动化并存。

网页端做对话交互,说明谷歌想把智能家居管理从"打开手机点按钮"变成"直接打字问"。这对习惯用电脑办公的用户是体验补全。

为什么选这个时间点

2026年5月的这波更新,Nest摄像头和自动化功能也有改进。但语音助手的模型升级明显是C位——智能家居的竞争已从"连得上多少设备"转向"听得懂多少话"。

亚马逊Alexa、苹果HomeKit都在推多轮对话和复杂指令理解。谷歌用Gemini 3.1的Pro模型直接降维,相当于把自家最前沿的通用AI能力灌进垂直场景。技术复用效率很高。

另一个信号是"Ask Home"的网页布局。谷歌在把智能家居的控制入口分散化:手机App、语音、网页、甚至未来的车载或办公场景。多模态、多终端是明牌策略。

对用户的实际影响

早期体验用户现在就能试。如果你家里有Nest生态,可以测试那些以前需要拆成两三句的指令——比如"明早7点叫我起床,同时把客厅灯调暗,空调设26度"。

网页端的Ask Home上线后,办公室摸鱼查家里摄像头会更方便。不过谷歌没给具体日期,只说了"coming soon"。

这次升级没提新硬件,纯软件更新。对已有用户是零成本体验提升,对潜在买家则是"现在买也不亏"的信号——毕竟模型能云端迭代,设备不会快速过时。

语音助手终于开始像人了。虽然它还不会在你忘关煤气时主动报警,但至少能听懂你一口气说完的复杂需求。进步不算革命性,但方向是对的——让技术适应人的说话方式,而不是反过来。