探索宇宙奥秘 · 理性思考
如果你曾在飞机遭遇气流时惊叹于空气的狂暴无序,或在观看瀑布时困惑于水流为何如此难以预测,那么你便触碰到了物理学中最顽固的堡垒之一——湍流。这个被费曼称为"经典物理学中最重要的未解决问题"的现象,如今迎来了史上最强的一次"解剖":美国佐治亚理工学院的科研团队借助全球最强超算Frontier,在三维空间中布下了35万亿个计算网格点,首次在计算机中完整复现了接近真实实验条件的湍流全貌。这项发表于《流体力学杂志》的研究,不仅将直接数值模拟的分辨率推向极致,更可能改写我们对从龙卷风到飞机引擎燃烧室中流体行为的认知。
在计算流体力学中,直接数值模拟(DNS)是理解湍流的"金标准"。这种方法不依赖任何简化假设,而是直接求解纳维-斯托克斯方程,追踪流体中每一个涡旋的生死演变。但问题在于,湍流是一个跨尺度的怪物:大涡旋分裂成小涡旋,小涡旋分裂成更小的涡旋,这一过程一直持续到分子粘性将其能量耗散为热。
为了捕捉这一"能量级联"的全过程,研究人员必须在三维空间中铺设细密的网格。此前,受限于计算能力,全球最大规模的DNS模拟通常停留在数千亿网格点的量级。而这一次,佐治亚理工的P. K. Yeung团队利用美国能源部橡树岭国家实验室的Frontier超算——这台全球首台百亿亿次级(每秒百亿亿次运算)开放科学超算——实现了32,768³的恐怖分辨率,即每个维度32,768个网格点,总计超过35万亿个计算节点。
这个数字意味着什么?如果把此前的模拟比作标清电视,这次就是IMAX级别的超高清。更重要的是,他们将雷诺数推到了2,500。雷诺数是衡量流体惯性与粘性之比的关键参数,数值越高,湍流越剧烈、越接近真实世界的风暴和高速气流。 在此前的超算时代,如此高雷诺数配合全尺度解析几乎是不可能完成的任务。
湍流研究的核心悖论在于:尽管宏观上混乱不堪,但在微观小尺度上,湍流却表现出惊人的统计普适性。这一由科尔莫戈罗夫在1941年提出的"K41理论"认为,无论湍流发生在风洞、河流还是大气中,其最小尺度的统计特性都遵循相同的数学规律。
理论需要验证。Yeung团队的模拟首次在35万亿网格点的尺度上,精确测量了能量耗散(动能转化为热)与涡量(局部旋转强度)的概率分布差异。他们发现,即便在最极端的湍流事件中,经典的"耗散异常"定律——即高雷诺数下能量耗散率与流体粘性无关——依然成立。但同时,小尺度湍流的间歇性(即极端事件集中爆发的特性)比传统理论假设的更为强烈。
这一发现直接回应了气象学和工程学中的痛点:如何预测百年一遇的极端天气,或发动机中偶发的局部熄火?通过将确定性问题转化为概率问题,这种超高分辨率模拟为"黑天鹅"式的湍流极端事件提供了量化工具。
对中国读者而言,最关心的或许是:我们在这个领域处于什么位置?答案是,中国已经具备了参与这场"超算湍流竞赛"的硬实力,甚至在某些方向上并跑甚至领跑。
在硬件层面,中国的"天河三号"和"神威·太湖之光"系列同样具备百亿亿次级计算能力。2023年,清华大学杨越教授团队利用国产超算实现了大规模湍流燃烧的DNS模拟;北京大学李存标教授则在湍流边界层转捩(层流向湍流转变)的直接数值模拟方面积累了深厚成果。中科院力学所何国威院士团队提出的"时空关联"理论,为解释湍流间歇性提供了新的数学框架,与Yeung团队此次观测到的强间歇性现象形成理论呼应。
关键在于,湍流DNS已成为检验超算性能的"试金石"。Yeung团队此次采用的"多分辨率独立模拟"策略——即在低分辨率长时间模拟基础上,插入短时段高分辨率"快照"——这种算法创新同样适用于中国超算架构。事实上,约翰霍普金斯湍流数据库(JHTDB)已向全球开放,中国学者完全可以利用这批35万亿网格点的数据进行机器学习训练,发展适用于工程应用的湍流模型。
这项研究的实用价值将在多个领域层层扩散。在气象领域,更精确的湍流模型意味着台风路径和极端降雨的预报精度提升;在航空领域,理解高雷诺数湍流有助于设计出阻力更低、燃油效率更高的机翼;在能源领域,内燃机燃烧室中的偶发熄火现象有望通过极端事件概率分析得到抑制。
值得注意的是,Yeung的博士生正在利用这批数据训练机器学习模型。当35万亿网格点的"真值"数据注入AI,我们或许将迎来湍流建模的范式转变——从基于经验的半经验模型,转向数据驱动的物理约束模型。
五十多年前,人类开始用计算机模拟湍流;三十年前,P. K. Yeung踏入这个领域;如今,我们终于站在了一个拐点:计算精度首次与实验室测量相当,却又能提供实验无法观测的瞬时三维细节。这场对混沌的解构,才刚刚开始。
热门跟贴