谷歌刚把Gemini塞进智能家居,开源玩家已经用本地模型跑出了更好的体验——而且不花一分钱订阅费。
这事挺讽刺的。谷歌花了十年把语音助手从"设闹钟工具"升级到"对话式AI",结果用户发现:把开源模型塞进树莓派,响应更快、隐私更稳、还不用看广告。
更扎心的是,谷歌自己可能也清楚这点。
本地LLM已经卷到"周末下午就能搞定"
开源权重模型的迭代速度快得离谱。跑本地大语言模型这件事,已经从极客炫技变成了普通用户的周末项目。
Home Assistant的本地AI对话功能支持直接对接你的私有服务器端点——LM Studio、vLLM、Ollama、llama.cpp、KoboldCpp,任选其一。Ollama通常是默认推荐,但绝非唯一选择。
这种灵活性意味着:你可以根据硬件条件和场景需求,切换不同规模的模型。小模型跑在旧手机上,大模型丢进闲置的笔记本,全家设备统一调度。
谷歌Gemini for Home的卖点是"更自然的对话",但代价是所有计算发生在谷歌服务器,且强制联网。对于已经尝过本地LLM甜头的用户来说,这像个倒退。
隐私不是卖点,是底线
智能家居的传感器数据有多敏感?麦克风录音、摄像头画面、门锁状态、人体存在检测——这些信息流往第三方服务器,本身就是风险敞口。
本地LLM的架构设计天然规避了这个问题。数据不出户,推理在本地完成,云端只承担可选的语音转文字(且可替换为本地方案)。
谷歌的隐私政策再完善,也改变不了数据物理位置的事实。而Home Assistant用户连路由器都能自己刷固件,信任链条完全可控。
这不是阴谋论式的安全焦虑,是架构层面的本质差异。一个依赖持续联网,一个可以断网运行72小时无感知——后者在停电、断网、ISP故障时依然能控制灯光和门锁。
响应延迟:本地模型的隐藏优势
云端AI的延迟构成很复杂:设备→谷歌服务器→模型推理→返回结果→执行指令。物理距离和网络波动都是变量。
本地部署的链路短得多:设备→同一路由器下的服务器→即时响应。实测中,本地小模型的端到端延迟可以压到200毫秒以内,而云端方案受限于RTT(往返时间),波动范围大得多。
对于智能家居场景,延迟不只是体验问题。语音控制灯光时,"开灯"指令卡半秒和瞬时响应,用户的心理预期完全不同。前者像在和迟钝的管家对话,后者像思维直接映射到物理世界。
谷歌当然能优化CDN和边缘节点,但物理定律没法绕过。当你的服务器就在客厅角落时,再强的全球基础设施也是降维打击。
成本结构:一次性投入 vs 持续订阅
谷歌Gemini for Home的定价策略尚未完全明朗,但参考Gemini Advanced的订阅模式,家庭AI功能大概率会打包进付费层级。
本地方案的成本是一次性的:闲置硬件(旧笔记本、迷你主机、甚至高端路由器)+ 电费。以运行7B参数模型为例,功耗通常在15-30瓦之间,年化电费低于大多数流媒体订阅月费。
更关键的是边际成本。本地模型可以服务无限设备、无限家庭成员,无需按用户或按请求计费。谷歌的商业模式决定了它必须在某个环节设置付费墙,而开源社区没有这层约束。
这种差异会随时间放大。三年后的本地方案依然是沉没成本,而订阅费用持续累积。对于价格敏感的智能家居用户,这笔账不难算。
功能边界:谁更懂你的家
谷歌的优势在于生态整合——Nest恒温器、Pixel手机、Android TV的联动确实流畅。但这种整合是有代价的:你必须留在谷歌围墙内。
Home Assistant的开放性体现在协议层。Zigbee、Z-Wave、Matter、MQTT、Modbus——几乎任何能联网的设备都能接入,无论品牌。本地LLM作为中枢,可以调用这些设备的完整状态,而非谷歌开放的有限API。
举个例子:你想让AI根据"客厅有人且湿度低于40%"自动加湿。在谷歌生态里,这需要Nest传感器支持湿度读取、且API向Gemini开放。在Home Assistant里,任何接入的湿度传感器都能成为触发条件,逻辑完全自定义。
这种差异的本质是控制权。谷歌提供的是"我们认为你需要的功能",开源方案提供的是"你能描述出来的任何功能"。
谷歌的困境:知道问题在哪,但改不了
文章标题说"Google knows it"——谷歌知道本地LLM表现更好。这不是猜测,是产品决策的必然推论。
谷歌的技术储备完全足以做本地大模型。Gemini Nano已经在Pixel手机上离线运行,证明工程能力不是问题。但商业模式和战略优先级决定了资源投向。
云端AI的核心价值是数据飞轮:用户交互训练模型→模型改进吸引更多用户→产生更多数据。本地部署切断了这条回路,对谷歌的吸引力自然下降。
更深层的矛盾在于信任架构。谷歌需要用户相信"把数据交给我是安全的",而本地LLM的崛起恰恰建立在"不信任任何中心化平台"的前提上。这两种世界观难以调和。
所以谷歌的选择是:在宣传中强调"更智能的对话",在脚注里标注"需要联网"。对于已经了解本地方案的用户,这种话术越来越苍白。
开源社区的隐形护城河
Home Assistant不是突然冒出来的。它经历了十年迭代,从极客玩具成长为支持数千设备的平台。本地LLM的接入是顺势而为,而非从零开始。
这种积累形成了独特的护城河:设备兼容性、社区插件生态、自动化脚本的沉淀。新用户加入时,发现大部分需求已被前人解决,只需微调配置。
相比之下,谷歌每次战略转向都意味着用户学习成本的重置。从Google Assistant到Gemini,交互逻辑、唤醒词、功能边界都在变化。而Home Assistant的本地LLM方案,底层是稳定的标准协议,上层是持续进化的开源模型。
更关键的是人才流向。智能家居领域的硬核用户——那些愿意花时间折腾的early adopter——正在加速向开源方案迁移。他们既是贡献者也是布道者,形成的网络效应难以用营销预算购买。
技术民主化的连锁反应
本地LLM的成熟正在改变智能家居的竞争维度。过去比拼的是云端智能和生态封闭性,现在硬件算力和开放协议变得同等重要。
这对行业格局的冲击是深远的。传统家电厂商发现:接入Home Assistant比申请谷歌Works with认证更简单,且不受平台政策变动的影响。小品牌因此获得与大厂同台竞技的机会。
对消费者而言,选择范围急剧扩大。不再需要在"谷歌生态"和"苹果生态"之间二选一,可以混搭任何支持开放协议的设备,用本地AI统一调度。
这种碎片化的重组,恰恰是谷歌最不愿看到的场景。它的商业模型依赖于生态锁定,而开放协议正在瓦解这种锁定。
一个值得动手验证的命题
如果你已经在用智能家居,不妨做个实验:花一个周末,在闲置设备上部署Ollama+Home Assistant,接入手头的传感器和控制器。对比同一指令在本地模型和谷歌助手上的表现。
关注的维度可以很具体:响应延迟、理解准确率、隐私可控性、自定义灵活度。这些量化体验会告诉你,标题里的判断是夸张还是保守。
技术选型从来不只是技术问题。它关乎你愿意把生活的控制权交给谁——是 distant server 上的黑箱算法,还是客厅角落那台你能亲手拔掉网线的机器。
开源社区已经证明了后者可以做得更好。剩下的问题是:你是否有动力亲自验证这个结论。
热门跟贴