周三晚上十点,你站在阳台上抬头看天。北边有颗特别亮的星,但你不知道那是什么,更不知道为什么它会在那个位置。

这时候如果有个 companion 能告诉你:这是织女星,现在它的高度角是47度,因为地球自转轴倾斜23.5度,夏季北半球中纬度地区看到的星空会和冬季完全不同——而且这些话不是从数据库里调出来的,是一个AI实时算出来的。

打开网易新闻 查看精彩图片

这就是 StarLens 在做的事。它不是把AI"装"进一个天文App,而是让模型成为整个系统的核心——从计算星星位置到解释给你听,全部交给它完成。

开发者用 NASA/JPL 的星历数据(Skyfield 库 + Hipparcos 星表)实时计算 11.8 万颗恒星、8 颗行星、太阳和月亮的位置,然后把这些数据喂给模型。这意味着AI的每一个回答都基于真实的天体物理计算,而不是训练数据里的模糊记忆。

整个产品拆成 7 个交互标签页,每个都在测试大模型的不同能力边界。

第一个标签页叫"今夜星空"。系统生成实时星图,AI负责讲解。你点击任何天体问"为什么它在那里",它会解释轨道力学——不是背课文,是根据当前真实位置推导出的因果链。

第二个是"天空对话"。多轮聊天里,整个天空状态作为上下文注入。你问"南边那个亮东西是什么",系统会查实时计算的位置表,而不是猜。

第三个"导览模式"更像现场演出。AI一步步带你逛天空,给出精确的方位角、高度角,穿插冷知识——比如某颗恒星的光其实走了400年才到你眼里。

第四个"天空对比"展示 1-12 小时内的星空变化,AI解说哪些星升起、哪些落下、轨迹怎么偏移。这对理解天体运动很直观。

第五个功能玩的是多模态闭环:你上传一张夜空照片,视觉模型识别星座和亮星,然后系统用计算出的星历位置交叉验证——既"看"图,又"懂"背后的物理位置。

第六个"深度探索"动用了 128K 上下文窗口,把整个星表塞进去回答关于任何天体的详细问题。第七个"观测计划"则让AI根据月相、天气窗口和天体可见性,排一个最优的观星行程。

最让开发者得意的设计是那个"多模态往返":系统先用星历数据渲染一张星图,再把这个图喂回视觉模型分析——证明AI既能消费天文可视化,又能对其推理。

技术实现上用了两个模型分工。轻量版处理视觉任务,响应够快,适合交互式照片分析和那个需要低延迟的多模态往返。大参数版负责推理,128K 上下文装得下完整星表,更深的推理层生成更好的导览解说和轨道力学解释。

开发者反复强调一个区分:这不是"用了AI的天文App",而是"懂天文数据的AI companion"。区别很微妙——前者是功能叠加,后者是能力内化。

StarLens 目前作为技术挑战赛的参赛作品开源,代码托管在 Gradio 框架上。从架构看,它更像一个能力演示而非商业产品:用极端具体的场景(观星),测试通用模型的边界条件(长上下文、多模态、实时数据融合、科学准确性约束)。

但这也抛出一个问题:当AI能实时接入专业数据库并保证输出可追溯时,"幻觉"还是不是一个有意义的技术障碍?或者说,我们之前担心的"AI胡说八道",有多少其实是因为没给它喂对数据?