八年前语音助手还只能设闹钟,现在安卓要替你回邮件了。

5月12日的Android Show上,谷歌亮出了Gemini Intelligence——不是加个聊天窗口那么简单,而是让手机从"等你指令"变成"主动出手"。

打开网易新闻 查看精彩图片

这个转变的底层逻辑很清晰:安卓全球活跃设备超过30亿台,但用户每天解锁手机的次数正在下降。谷歌的解法不是让人多用手机,而是让手机在锁屏状态下也能干活。

打开网易新闻 查看精彩图片

具体怎么实现?三个层面同时推进。

第一是意图理解升级。Gemini Intelligence能跨应用读取上下文——你在日历里标记了航班,它自动调出行李清单、推送登机口变更、甚至在你落地前预订好接机。这些动作不需要你逐个打开App。

第二是设备端算力重构。谷歌把大模型压缩到能在本地运行的体积,敏感数据不出手机。这意味着你的健康记录、银行通知可以直接被AI处理,而不必上传到云端。

第三是开放生态的杠杆效应。谷歌反复强调"与合作伙伴一起快速推进"——三星、小米、OPPO等厂商的定制系统将获得同等深度的API接口,不是谷歌独家的功能演示。

打开网易新闻 查看精彩图片

现场还埋了个伏笔:智能眼镜今年晚些时候发布。这款设备被定位为"Gemini Intelligence的延伸",而非独立硬件。谷歌显然在赌一个场景——当手机能主动办事,你就不需要频繁掏出它了,但需要一个更轻量的交互入口。

对开发者而言,变化同样剧烈。新的Android SDK允许应用声明"可被AI调用的能力",类似于当年小程序对超级App的依附逻辑。不同的是,这次依附的对象是整个操作系统级别的智能层。

下周的I/O大会会有更多技术细节。但核心信号已经明确:安卓正在从"应用平台"转型为"智能体操作系统",竞争维度从"谁的应用生态更丰富"转向"谁的AI能更准确地预测并执行用户意图"。

这对中国市场的参考价值在于:当海外巨头把AI能力下沉到系统层,国产厂商的差异化空间在哪里?是自研大模型的垂直优化,还是场景化服务的深度整合——这个问题可能比技术参数更值得跟踪。