打开网易新闻 查看精彩图片

索尼互娱(Sony Interactive Entertainment)刚完成一笔低调收购——买下英国AI初创公司Cinemersive Labs。这家公司做了一件听起来很玄的事:用普通手机拍的2D照片,算法一转就能变成可环绕观看的3D场景。

没发布会,没预热,公告埋在官网角落。但把时间线拉长,你会发现这是索尼从2022年就开始布的局。

被收购的这家公司,到底在做什么

被收购的这家公司,到底在做什么

Cinemersive Labs最出圈的产品叫Parallax,一款VR应用。用户用普通手机或立体镜头相机拍完照片,导入App就能生成"视差照片"——转头看,画面会跟着动,像透过窗户看真实场景。

技术核心是一套自研AI工具,把2D图像重建为3D体积数据(3D volumes)。不是简单的深度图,而是完整的三维空间信息,支持任意角度观察。

创始人团队来自伦敦大学学院(UCL)和帝国理工的计算机视觉实验室,发表过数十篇3D重建领域的顶会论文。Parallax在Meta Quest商店上线后,用户评价集中在一点:上手门槛极低,但效果超出预期。

索尼看中的正是这套"低输入、高输出"的管线。Cinemersive团队将并入索尼视觉计算组(Visual Computing Group),直接向游戏渲染和生成式AI项目输血。

索尼的AI游戏版图,拼到哪一步了

索尼的AI游戏版图,拼到哪一步了

这笔收购要放在更大的框架里看。

PlayStation 5 Pro去年发布时,核心卖点是PSSR(PlayStation Spectral Super Resolution)——索尼自研的AI超分技术。原理和英伟达DLSS类似:游戏先以较低分辨率渲染,再用机器学习算法 upscale 到4K,帧率翻倍,画质损失肉眼难辨。

今年3月,索尼推送了PSSR 2.0更新,Pro版主机性能再榨出一截。同期,AMD官宣与索尼的合作项目Amethyst,目标直指下一代主机的光追和超分能力。

现在加上Cinemersive的3D重建技术,索尼的AI工具箱里集齐了:超分、光追优化、2D转3D体积。三条线指向同一个终点:用更少的算力,渲染更真的画面。

一个可能的落地场景:游戏里的照片模式。现在玩家截图是2D的,未来可能直接生成可漫游的3D瞬间。或者更激进——用玩家自己的照片生成游戏内资产,降低UGC门槛。

为什么是现在?为什么是这个团队

为什么是现在?为什么是这个团队

3D重建不是新赛道。NeRF(神经辐射场)2020年就火了,谷歌、Meta、苹果都有布局。但Cinemersive的区别在于工程化程度:他们的算法能在移动设备上实时运行,输入只需要单张或几张普通照片。

索尼视觉计算组负责人之前透露过一个细节:团队在探索"神经渲染"(neural rendering)与实时管线的结合。传统游戏渲染是几何+光栅化,神经渲染则用AI直接合成像素,两者 hybrid 可能是下一代引擎的方向。

Cinemersive的技术恰好卡在关键节点——能把真实世界的2D数据,快速转化为神经渲染可用的3D体积。换句话说,打通"真实拍摄"到"虚拟使用"的最后一公里。

收购金额未披露,但参考同类交易:苹果2023年买下NeRF初创公司Mira,传价约1.5亿美元;Meta同期收购的几家3D AI团队,估值都在数千万美元级别。索尼这笔大概率落在相似区间。

玩家什么时候能摸到

玩家什么时候能摸到

短期内,Cinemersive的技术最可能先用在两个地方。

一是PS VR2的内容生态。Parallax应用本身就可能移植,作为VR头显的 native 照片查看器。二是游戏开发工具,帮工作室快速生成3D场景原型——拍几张参考图,AI自动生成可漫游的灰盒关卡。

长期看,索尼在申请中的专利透露了更大野心:用AI实时增强游戏画面细节,甚至根据玩家视角动态生成未渲染区域的内容。这需要超分、光追、3D重建三条技术线协同,而Cinemersive的加入补上了最后一环。

索尼在公告里说得克制:「Cinemersive团队将贡献于我们在游戏中推进最先进视觉计算的努力。」

但把三年内的收购、合作、产品更新串起来,轮廓已经清晰。当微软还在押注云游戏和订阅制,任天堂守着硬件创新,索尼选择了一条更工程化的路:用AI一点点拆解"画面好"这件事,从分辨率、光照、到空间维度,逐个攻破。

玩家可能不会直接感知这些技术名词。但下次在PS5 Pro上打开某款游戏,发现远景意外地清晰,或者VR里的老照片突然有了纵深感——背后可能就是这支伦敦小团队的算法在跑。

一个值得追问的细节:Parallax应用目前支持导出标准格式,但索尼收购后,这些3D体积数据会不会变成PlayStation生态的专属资产?毕竟,能锁定用户照片的,从来不只是云存储空间。