Meta把自家AR眼镜的传感器数据开放了。Project Aria不是什么消费产品,而是一套专门给研究者用的"第一视角"采集工具——眼镜上塞了摄像头、麦克风、IMU、眼动追踪和GPS,走哪录哪,全是 wearer 真实看到的世界。

数据格式叫 Ego4D,已经喂给全球几百个实验室。做视觉导航的、研究人机交互的、搞多模态大模型的,都能拿到同一套"人眼视角"的标注数据。这比让志愿者举着手机拍方便多了,也真实多了。

打开网易新闻 查看精彩图片

Meta的算盘很直接:AR要成,先得让AI理解"人怎么看世界"。现在开源硬件+开放数据集,把生态先养起来。毕竟谁掌握了第一视角的AI,谁就掌握了下一代计算平台的入口。

打开网易新闻 查看精彩图片