如果让你花两万多块钱买个头显,你会用来做什么?打游戏、看电影,还是——做白内障手术?

纽约眼科医生Eric Rosenberg博士选了第三条路。今年10月,他用苹果Vision Pro完成了全球首例白内障手术,顺便给这款争议设备找到了一个出人意料的落地场景。

打开网易新闻 查看精彩图片

手术台上的3D直播

Rosenberg不是单枪匹马。他拉上了一家叫ScopeXR的技术公司,把手术室里的显微镜画面实时转成3D视频,直接串流到Vision Pro上。

效果很直观:戴上头显,医生能以"第一人称"视角悬浮观察手术视野,还能在画面里叠加患者数据。更关键的是远程协作——ScopeXR支持多人同时接入,其他医生可以"虚拟在场",看到的画面和主刀完全一致。

Rosenberg在新闻稿里说得直白:「我们现在可以在任何时间、任何地点,把全球任何手术室带到任何中间地带。」他特别提到,偏远地区的医生能借此获得专家实时指导,「让专业知识真正实现民主化,最终治愈更多人」。

苹果的B面叙事

这个案例恰好踩中了苹果一直想讲的故事。

Vision Pro发布以来,3499美元的定价和笨重的体积让它在消费端始终不温不火。市场反馈甚至让苹果内部调整了预期——库克公开承认这不是大众市场产品,最新消息显示下一代可能转向更轻便的智能眼镜形态,Meta在这条路上已经跑在前面。

但苹果从没放弃给企业端找场景。医疗、太空训练、工业设计,这些领域对价格不敏感、对沉浸感要求高,恰恰是Vision Pro的舒适区。Rosenberg的手术直播,等于给苹果的B端战略提供了一个可量化的样板间。

远程医疗的硬件变量

回到技术本身,这场实验的真正价值可能不在"用了什么设备",而在验证了一种工作流。

传统远程会诊依赖平面屏幕,医生无法获得深度感知,操作指导始终隔了一层。Vision Pro的3D空间计算(苹果对这套系统的官方命名)把显微镜下的组织层次还原了出来,远程参与者终于能和主刀"看同一个空间"。

ScopeXR的多人接入功能则解决了另一个痛点:优质医疗资源的空间分布极度不均。Rosenberg提到的"偏远地区医生获得专家指导",指向的是一个明确的商业化路径——不是卖设备,而是卖连接。

当然,现在谈规模化还为时过早。手术室对稳定性、消毒、合规的要求远高于普通场景,Vision Pro的续航、佩戴舒适度、感染控制都是待解问题。但首例的意义在于证明了可行性:空间计算设备确实能嵌入高精度医疗流程,而不只是概念验证。

高价设备的场景辩证法

这件事也抛出一个产品命题:当C端市场遇冷,高端硬件的出路在哪里?

Vision Pro的困境在于,它试图同时满足"个人娱乐终端"和"专业生产力工具"两个定位,结果两头不讨好。消费者嫌贵、嫌重、嫌没内容;企业客户又担心生态不成熟、定制成本不明。

Rosenberg的案例提供了一种拆分思路:不追求设备普及,而是聚焦特定场景的深度适配。手术室不需要百万台Vision Pro,可能需要的是几百台设备+一套完整的远程协作服务。硬件变成基础设施,价值体现在连接效率的提升上。

苹果10月推出的M2芯片升级版Vision Pro,是这条产品线首次硬件迭代。节奏不算快,但方向很清晰——先在企业端跑通闭环,再考虑消费端的轻量化。

一个有趣的对比:Meta选择从低价轻量起步,逐步上探功能;苹果则坚持高端性能路线,向下寻找场景。两种策略谁能先突破临界点,可能取决于谁能先积累足够多的"Rosenberg时刻"——那些让人意识到"原来还能这么用"的真实案例。

最后留个问题:如果空间计算设备最终先在手术室、工厂、训练舱里站稳脚跟,我们最初设想的"元宇宙日常生活",会不会永远停留在发布会视频里?