你有没有想过,天文学家每天盯着望远镜看,其实把绝大部分发现都扔进了垃圾桶?
不是他们不想用,是用不过来。宇宙太慷慨了,慷慨到让人手忙脚乱。
事情要从一种特别的恒星爆炸说起。每隔一阵子,某颗恒星会以最壮观的方式谢幕——它在几秒钟内剧烈引爆,亮度瞬间超过整个宿主星系,然后在接下来几周里慢慢黯淡。这种爆炸叫Ia型超新星,是宇宙中最剧烈的事件之一。但天文学家爱它们,不是因为场面好看,而是因为它们是一把现成的尺子。
所有Ia型超新星爆炸时的内在亮度都差不多。这在天文学里叫"标准烛光"——如果你知道一盏灯实际有多亮,再测它看起来有多暗,就能算出它离你多远。就像海上的灯塔,你知道它发多少光,看它在雾里模糊成什么样,就能估摸自己离岸还有多远。
问题是,超新星的光传到地球时,早就被搅得一团糟。星际尘埃云过滤过它,爆炸恒星的年龄和化学成分重塑过它,它生前所在的星系也掺了一脚。要把这些干扰分开,传统上得做一件事:光谱分析——把光拆成不同波长,一寸一寸地检查。
这活儿精细,但也慢得要命。
现在,智利的薇拉·鲁宾天文台刚开始运转,预计每年能发现超过10万颗Ia型超新星。传统方法根本跟不上这个节奏。到目前为止,天文学家只能对大约1%的观测超新星做光谱分析,剩下的99%——没错,九成九——基本等于白看了。不是不存在,是用不了。
这就是那个让人哭笑不得的局面:宇宙拼命给数据,人类只能挑着捡。
一支来自意大利里雅斯特国际高等研究院(SISSA)和巴塞罗那大学的团队,最近给这个问题找了个新解法。他们开发的方法叫CIGaRS,用人工智能和神经网络,同时拆解影响超新星亮度的所有因素——而且只用光度数据,不用光谱。
说人话就是:以前得把光拆开细看才能分清的干扰,现在看整体亮度变化就能猜个八九不离十。
CIGaRS把星系演化、尘埃效应、恒星年龄和化学成分统统塞进一个统一模型,而不是像以前那样,用一个近似公式接一个近似公式地慢慢修正。它同时处理所有变量,而不是排队挨个来。
团队在模拟星表上测试了这套方法,模拟了大约1.6万颗超新星——差不多是鲁宾天文台一个月的工作量。结果很直接:CIGaRS的宇宙学测量精度,比依赖那1%光谱数据的传统方法高出四倍。
四倍精度意味着什么?在宇宙学里,暗能量的竞争理论之间的差别,可能就藏在测量值的微小波动里。精度不够,你得到的只是猜测;精度够高,猜测才可能变成答案。
更重要的是,这终于让"用全部数据"成为可能。不是挑着用1%,是100%都用上。以前扔掉的那些观测,突然都有了价值。
这件事本身没那么神奇——神经网络处理复杂数据,这几年到处都在用。真正神奇的是时机:正好在天文台数据爆炸的前夜,正好在旧方法即将被淹没的临界点,有人把工具递了过来。
你可以把它想象成翻译。以前读一门外语书,你得查每个生词、分析每句语法,一天读三页。现在突然有了个还不错的机器翻译,一天能读三百页——虽然偶尔有偏差,但覆盖量完全不是一个量级。天文学现在面临的,就是这种阅读速度的质变。
当然,新方法也有它的边界。CIGaRS是用模拟数据训练的,真实宇宙的复杂程度会不会超出它的训练范围?某些极端环境下的超新星,行为会不会和模型假设的不一样?这些悬念还在。但目前来看,它解决的是最紧迫的瓶颈:数据来了,人跟不上了。
这也引出一个挺有意思的问题:还有多少科学领域,正在默默扔掉99%的数据?
天文观测是个极端案例——数据量太大,处理不过来。但类似的情况可能到处都有。医学影像、气候模型、粒子对撞……传感器越来越便宜,存储越来越便宜,但人类的注意力、专家的时间,仍然是硬瓶颈。AI在这里扮演的角色,与其说是替代专家,不如说是先把海量信息筛一遍,让专家知道该往哪看。
超新星的例子还说明另一件事:有时候限制我们的不是观测能力,而是提问方式。几十年里,天文学家默认"要精确测距离,就得有光谱",于是接受了1%的利用率。CIGaRS的突破,某种程度上是换了个问法:如果放弃光谱的绝对精确,换取光度数据的规模优势,能不能用统计力量补回来?
答案是能,而且补得比预期还好。
这种思路的迁移,可能比方法本身更有价值。当数据洪流袭来时,"更精确但更少"和"稍粗糙但更多"之间的权衡,会出现在越来越多领域。选择后者,有时候不是妥协,是另一种进攻。
至于暗能量到底是什么,宇宙会不会最终撕裂,CIGaRS本身不会直接给出答案。但它把回答这些问题的工具,从"勉强够用"升级到了"可能真的够用"。在科学里,这种升级往往是质变的前奏。
毕竟,如果你只能看到宇宙的1%,你对宇宙的理解,大概也不会超过1%。
热门跟贴