作者:周雅

距离最近一次我们见到Google官宣智能眼镜想法的时候,是在5月份的Google I/O上,当时Google介绍了AndroidXR的理念,可以理解为它是内置了Gemini的XR平台,包含从头显、耳机、智能眼镜等各种设备,现场给人唯一的感受就是:智能,非常智能。

这一次,就在今天凌晨,Google在油管上办了个线上发布会,叫“The Android Show”,但这次是特别版,专讲 XR。

打开网易新闻 查看精彩图片

Android的基调:超越“聪明”,迈向“智能”

发布会一开场,Google Android生态系统总裁Sameer Samat先没急着聊 XR,而是先定了调子:Android的未来,是要从“聪明”(Smart)进化到“智能”(Intelligent)。

这俩词有啥区别?

说白了,“聪明”是被动响应,你按一下,它动一下。而“智能”是主动理解,它懂你,甚至比你快一步。

Sameer Samat提到,近几个月 Android 平台势头强劲,例如在 Pixel 手机上首发了全新的设计语言 Material 3 Expressive,它赋予了用户前所未有的个性化定制能力。更重要的是,作为核心驱动力的 Gemini 也在不断进化,Gemini 3新增的屏幕共享和视觉引导功能,意味着用户只需一次长按,就能随时随地获得解答、建议或灵感。还有被大家脑洞大开体验的Nano Banana,大家可以把自己 P 到各种场景中。

基于此,Sameer Samat提到 Android 的核心三要素:优美的设计(Beautiful Design)、最有帮助的 AI(the most helpful AI)、个性化(Personality)。他强调,无论是在手机、手表、汽车还是电视上,Android 始终是用户率先体验未来的地方。

而这场进化的关键,在于 Gemini + Android,未来它将会以三种方式为我们服务:

第一,它懂你(It just gets you)。它理解你所处的环境,学习你的偏好,从而提供真正为你量身定制的帮助。它不是对所有人都一样的通用工具,而是你的专属伙伴。

第二,它快人一步(It's a step ahead)。基于对你的理解,它能够预测你下一步可能需要什么,并在你开口之前就主动提供恰到好处的支持。这是一种从“被动响应”到“主动服务”的根本转变。

第三,它为你分忧(It handles the busy work)。它能将那些繁琐、重复性的任务自动化、简单化,从而让你腾出精力,让你专注于更重要、更有创造力的事情。

打开网易新闻 查看精彩图片

Sameer Samat明确指出,这将是人与技术交互方式的一次“根本性变革”(fundamental change):我们正从一个命令机器的时代,走向一个与机器协同的时代,技术能为我们成为什么样的人提供相应的支持。而这场变革的第一个试验场,就是 Android XR。

Android XR:设备的光谱

接着,Android XR副总裁兼总经理Shahram Izadi和三星XR部门高级副总裁Kihwan Kim 登场,正式揭开了Android XR的面纱——这是业界第一个为扩展现实设备打造的统一平台。

Android XR的诞生并非谷歌一家之功,而是与三星(Samsung)和高通(Qualcomm)“作为一个团队”共同构建的成果。这种“三位一体”的合作模式至关重要,它确保了从底层芯片(高通)、硬件设备(三星)到操作系统(谷歌)的深度优化与协同。

打开网易新闻 查看精彩图片

他们特别强调,Android XR 建立在成熟的 Android 基础之上,这意味着用户惯用的 Google Play 商店中的应用,都会顺理成章地出现在 XR 设备上。同时,Gemini 将作为核心的智能助理,为这些设备注入灵魂。

为了让大家对 XR 有更清晰的认知框架,Google抛出了一个核心概念——“设备的光谱”(a spectrum of devices),也就是说,XR 并非单一形态,而是各种终端连起来的“谱”。

打开网易新闻 查看精彩图片

光谱的一端,是功能强大的头显(Powerful Headsets)。这类设备追求极致沉浸感,适合短时间、高强度的任务,像是玩3A游戏、看3D电影,或者搞个无限屏的工作空间。它们是生产力和娱乐的重器。

光谱的另一端,是轻便的 AI 眼镜(Lightweight AI Glasses)。这类设备追求的是全天候佩戴,让你抬着头、解放双手,核心价值在于随时随地获得信息和 AI 辅助。它们是现实世界的“增强层”,让你在保持与现实世界连接的同时,获得额外的数字信息。

光谱的中间地带,则是融合了两者特性的混合形态设备。

这个光谱的概念,也展示了Google务实且长远的产品布局思路。换句话说,Google不赌某一个设备会“取代”手机,而是觉得未来更像是我们现在这样,根据不同场景,在笔记本、手机、手表、眼镜之间无缝切换。同理,Android XR 的发展路线图也类似,大家可能会使用多种不同形态的XR设备,它们与你现有的设备协同工作,起到补充(complement)和增强(augment)的作用,而不是完全取代。

Galaxy XR:当你的世界可以一键3D化

作为光谱中的代表作,已经上市的三星 Galaxy XR 头显(今年10月份上市)这次也迎来了首次重要功能更新。三星XR用户体验部门副总裁兼负责人Austin Lee和Android XR部门产品经理Katherine Erdman作出介绍。

打开网易新闻 查看精彩图片

Galaxy XR 被定义为一个能让你“观看、创造和探索”的无限屏幕(infinite screen)。其核心体验在于,由于Gemini 的加持,用户可以用对话式的交互方式来操作。

例如,当你到了一个城市,在谷歌地图的XR界面里,可以随时唤醒 Gemini,问它关于眼前建筑的更多信息,甚至直接让它调出相关的 YouTube 视频。

打开网易新闻 查看精彩图片

为了吸引早期用户,Galaxy XR 推出一系列“探索者套装”(Explorer Pack),捆绑了 Google AI Pro、YouTube Premium 和 Google Play Pass 等多项付费服务,并在不同地区提供了 YouTube TV 或本地体育赛事的优惠。此外,用户还能独家体验到著名导演 Doug Liman 的电影《Asteroid》以及 Adobe 用于空间视频编辑的 Project Pulsar。

打开网易新闻 查看精彩图片

发布仅一个月,Google Play 商店中“为 XR 而生”的应用和游戏数量就已超过 60 款,这初步验证了平台的吸引力。当然就像我们前文所说,三星 Galaxy XR 头显的首次重要功能更新包括了3个新功能和1个彩蛋。

打开网易新闻 查看精彩图片

首先是PC Connect,用户可以把电脑屏幕拉到眼前变成“巨幕”。Austin Lee现场演示,把正在PC上运行的游戏《城市:天际线 II》“拉”到XR空间,瞬间获得上帝视角。当然你也可以脑洞大开,在无限大的虚拟空间中,同时摆放PC窗口、XR应用窗口等,实现真正的多任务处理。

打开网易新闻 查看精彩图片

其次是Likeness(逼真化身)。目前,很多视频会议用的是卡通形象,而 Likeness 功能是让你在视频会议里有个更逼真的虚拟形象。这项功能不仅限于 Google Meet,也适用于其他视频会议应用,让远程沟通更具真实感和亲和力。

打开网易新闻 查看精彩图片

最后是Travel Mode(旅行模式)。也就是在飞机等移动环境中稳定使用设备,创造一个私人空中影院或沉浸式工作空间。

除了以上常规的功能之外,我觉得最亮眼的一个功能,叫做“自动空间化”(Auto-spatialization),或将于明年推出。

这是个什么神仙功能?简单说,就是一键把2D内容变成3D。

打开网易新闻 查看精彩图片

想象一下,你正在刷的网页、看的YouTube视频、玩的手游,按一个钮,瞬间就有了立体感和空间深度。可想而知,这项技术一旦成熟,将极大解决XR生态早期内容匮乏的问题,为海量的存量2D应用赋予新生。而且,这项技术是系统级的,意味着它对所有应用都有效。

这次更新,连同明年即将到来的“自动空间化”,我们或许正在见证一个内容消费的临界点。过去几十年,我们习惯了在平面的屏幕上消费信息,而从某一刻起,现实与数字之间的那层“屏幕”开始变得模糊、透明,甚至可以不存在。整个互联网的内容遗产,都有可能在XR的世界里获得新生。

Project Aura:一个介于头显和眼镜之间的“新物种”

如果说头显太重,眼镜功能又太少,那中间有没有最优解?Google用一个叫 Project Aura 的新设备给出了答案,也就是前文所说的“光谱的中间地带”。

打开网易新闻 查看精彩图片

Project Aura是一款“有线 XR 眼镜”,由谷歌的中国合作伙伴XREAL开发,它的形态和技术特点非常鲜明:

首先,它采用轻量化设计与有线连接。为了让眼镜本身足够轻便,主要的计算单元和电池被做成了一个用线连着的小圆盘(Puck),这个圆盘不仅是主机,还可以兼作触控板使用,提供额外的交互方式。

其次,它采用光学透视。眼镜本身用的是光学透视镜片,与依赖摄像头捕捉现实世界的视频透视不同,它能让用户能用肉眼直接看到真实世界,虚拟内容则以投影的方式叠加投射到用户的视野里。所以当设备不显示内容时,就像一副普通的太阳镜。

最后,它采用手势交互。用户可以直观地用手来抓取、拖动和操作虚拟窗口,学习成本极低。

演示里,Android XR工程部主管Andrea Colaço戴上它,随手就在空中拉出了三个虚拟屏幕,一边看视频,一边回消息,一边还能盯着自己笔记本电脑的屏幕。这简直就是把一套三联屏的家庭办公室,塞进了口袋里,随时随地都能掏出来用。由于是光学透视,她可以看到桌上的笔记本电脑,并继续用电脑的键盘和触控板操作,实现物理设备与虚拟屏幕的共存。

打开网易新闻 查看精彩图片

更有趣的是,她还可以通过线缆外接设备,扩展为一个巨大的空间窗口。演示中,当Andrea把眼镜接到笔记本上处理图片时,可以直接问旁边的 Gemini:“这张图怎么加背景虚化效果?” Gemini 马上就能给出步骤,因为Gemini能“看到”屏幕上的内容(包括来自电脑的窗口),并提供精准的上下文帮助。

Project Aura 的定位非常巧妙,它精准切入了一个被忽视的场景:移动生产力。它不追求极致的游戏沉浸感,也不追求全天候的佩戴,它只想解决一个痛点:当你在外面时,如何能像在公司或家里一样,拥有足够大的屏幕空间来高效工作,而且不会与现实世界完全隔离。这款产品预计将于明年上市。

AI眼镜:首先,它得是副好看的眼镜

终于,轮到了光谱的另一端,也就是——AI眼镜。

这里有必要再重申一下,为什么全文有的地方讲”XR眼镜“,有的地方讲”AI眼镜“,用更直白的话来讲,Android XR把我们所统称的”智能眼镜“分成两端:沉浸式的XR头显(含有线XR眼镜)和日常佩戴的AI眼镜,中间还有Aura这类形态。它们都用Gemini,但用途与交互完全不同。

其中,XR头显/有线XR眼镜等同于”把世界变成巨幕与3D”,AI眼镜等同于“把AI戴在脸上,信息抬头即得”,它们的共同底座是Android XR + Gemini。

打开网易新闻 查看精彩图片

配图来自科技行者

关于AI眼镜,Google这次的思路非常清晰,他们称之为“眼镜优先”(Eyewear first)。说白了,这首先得是一副人们愿意戴出门的、好看的、舒服的眼镜,然后才谈得上AI眼镜。

打开网易新闻 查看精彩图片

为了做到这一点,Google与三星一起,找来了两个画风完全不同的合作伙伴。一个是Warby Parker,亲民时尚眼镜品牌,主打日常百搭。另一个是Gentle Monster,前卫潮流眼镜品牌,主打酷炫设计。

这种与时尚品牌的深度绑定,或许是Google吸取了过往的经验教训(如Google Glass),认为未来的AI眼镜,既可以是你上班通勤的低调助手,也可以是你周末逛街的潮流单品。

Google还明确了两种AI眼镜的形态:

第一,标准版的AI眼镜,内置扬声器、摄像头和麦克风,可以与 Gemini 对话、听音乐、打电话、拍照等。

第二,带显示屏的AI眼镜,在标准版基础上,增加了一个微型显示器,负责在你眼前展示有用的信息,例如导航箭头、消息提醒等。

而现场的演示环节更是把氛围拉满,Android XR产品管理高级总监Juston Payne戴着眼镜原型机,在现场溜达。

打开网易新闻 查看精彩图片

看到桌上的零食,他直接问眼镜:“这是啥?”

眼镜立刻回答:“这是一种韩国烤肉味干脆面,叫 PPUshU PPUshU,一般是捏碎了再撒调料包吃。”(这展示了AI眼镜可以调用知识库,从而给出更优质的答案。)

这还没完。他跟同事合影,拍完后说:“Gemini,给照片里加一个戴墨镜的安卓机器人。”

下一秒,一张 P 好的图就生成了。(这表明AI眼镜不仅能“看”,还能结合生成式 AI 进行即时创作。)

最绝的是,他转身问:“刚才那桌零食里,有啥高蛋白的吗?”

眼镜回答:“桌上有毛豆,蛋白质含量很高。”

这个细节说明,AI眼镜已经具备了上下文记忆和推理能力,它记得“刚才那张桌子”上有什么。

接着,Juston Payne遇到了三星的韩国同事,两人直接用眼镜进行了实时翻译对话,全程自然流畅,完全没有障碍。

打开网易新闻 查看精彩图片

整个演示过程自然流畅,智能眼镜在你举手投足之间提供帮助,而Gemini 是一个无形的且全知全能的助理,时刻伴随左右。

致开发者:“如果你正在为Android开发,那你已经是在为XR开发了”

讲了这么多酷炫的设备和功能,怎么让它们真正用起来?答案无疑是开发者。Android开发部产品管理副总裁Matthew McCullough给开发者传达的信息简单粗暴:“如果你正在为Android开发,那你已经是在为XR开发了。”

Google发布了Android XR SDK 的开发者预览版 3 (Developer Preview 3),核心就是让开发者为下一波XR应用浪潮做好准备,可以把现有的Android应用以极低的成本,无缝迁移到各种XR设备上。

打开网易新闻 查看精彩图片

这里梳理了其中提到的几个新功能:

首先,针对头显设备,SDK 增加了带有“软性头部锁定”和过渡效果的空间动画。同时,Material 3 的 UI 组件(如对话框、导航栏)可以自动转换为空间 XR 元素,让开发者能将现有 UI 适配到 XR 环境。

其次,针对 Project Aura 这类XR眼镜设备,SDK 提供了新的 API,允许应用检测设备的视场角(Field of View, FoV),并据此调整 UI 布局。开发者可以在 Android Studio 的 XR 模拟器中,立即开始测试不同 FoV 下的应用表现。

最后,也是重头戏,Google正式向开发者开放了AI眼镜的开发。它包括:AR Core for Jetpack XR,它的核心是让AI 眼镜不再是“睁眼瞎”,而是能真正理解它“看到”的是什么,以及它自身在三维空间里的位置和姿态;Jetpack Glimmer,这是一个专为AI眼镜设计的全新Compose UI工具包,它包含卡片、列表、堆栈等UI组件,我们知道,在透明的玻璃上显示文字和图像,既要看得清,又不能挡住用户看现实世界的视线,这是个技术活;Jetpack Projected,这是一个基础API,能让开发者将现有的Android手机应用“投射”到AI眼镜上;Firebase AI Logic,Google正在与 Firebase 团队合作,使 Gemini Live API 能够与 AI 眼镜协同工作,方便开发者在应用中集成Gemini的能力。

为了进一步证明 AI 眼镜的实用价值,Google展示了它在真实场景中的应用。

首先是与旅行体验平台 Get Your Guide 的合作。一位名叫 Rose 的“职业游客”戴着 AI 眼镜在纽约进行了一场美食之旅。她通过语音询问眼镜“附近有什么 Get Your Guide 的美食团?”,然后根据眼镜的指引找到集合点。在品尝美食和与团友互动时,她只需用语音说“拍张照片”,眼镜就能立即拍下合影。期间,当导游提出“热狗算不算三明治”这个经典问题时,Rose 直接向眼镜发问,Gemini 给出了一段关于面包知识的回答。

打开网易新闻 查看精彩图片

另一个案例来自网约车厂商 Uber。Uber产品副总裁Amit Fulay展示了他们如何利用带显示屏的 AI 眼镜,优化乘客的出行体验:

首先是信息提示。当用户刚下飞机,预订了一辆 Uber 后,眼镜的微型显示屏会立刻显示行程状态和预计到达时间,让用户无需低头看手机,可以专注于寻找出口。

其次是导航功能。在机场这样复杂的环境中,眼镜可以提供简单的“寻路”指引,帮助你轻松找到上车点。

最后是快速识别车辆。在拥挤的路边,眼镜可以直接显示你所叫车辆的车牌号,甚至提供一键呼叫司机的快捷方式。

打开网易新闻 查看精彩图片

这两个案例,将 AI 眼镜从一个酷炫的科技玩具,转变成了能够解决现实痛点、提升生活品质的实用工具,让人们看到了这项技术商业化的路径。

或许,技术的进步,最终衡量的标准并不是它有多么宏大或科幻。

而是看它能否在某个下雨的夜晚,让你更快地找到那辆接你回家的车。