2026年2月初,中国AI开源社区迎来里程碑式突破。上海人工智能实验室与清华大学联合生数科技,几乎同期开源了两款重量级科学大模型——“书生-S1-Pro”与“Motus”。前者是全球参数规模最大的开源科学多模态模型,后者则是首个统一五种具身智能范式的世界模型。这两大模型的发布,标志着AI for Science(科学智能)正式从辅助科研的“工具革命”1.0阶段,迈入以“革命性工具”驱动原始科学发现的2.0时代。

“书生-S1-Pro”:万亿参数的科学智能“超级大脑”

2月4日,上海人工智能实验室正式开源了基于“通专融合”技术架构SAGE打造的万亿参数科学多模态大模型Intern-S1-Pro(书生)。其总参数量达到惊人的1万亿(1T),刷新了全球开源科学模型的规模纪录。

该模型采用混合专家架构(MoE),内部相当于有512位各领域“顶尖专家”。面对具体科学问题时,系统会精准调用最合适的8位“专家”参与决策,每次推理仅激活约220亿参数,实现了高性能与高效率的平衡。

其底层技术创新尤为关键。研究团队引入了傅里叶位置编码(FoPE)并重构了时序编码器,赋予AI“双重视角”——既能像观察“粒子”一样捕捉微观细节,又能像分析“波”一样把握宏观规律与频率。这使得模型能统一处理从寥寥数个到百万级采样的各类科学信号,分析对象从天文学、地理学拓展至生理信号、生物声学等领域,实现了感知能力的重大跃迁。

在性能上,“书生-S1-Pro”已构建横跨化学、材料、生命、地球、物理五大核心学科的全谱系能力矩阵。在国际数学奥林匹克(IMO-Answer-Bench)和物理奥林匹克(IPhO2025)权威基准测试中,展现出竞赛金牌级别的解题能力。更重要的是,该模型验证了从原创模型架构到国产算力基座(如昇腾生态)的自主技术完整链路,为构建开放共享的科学智能基础设施奠定了坚实基础。

“Motus”:大一统世界模型,实现机器人“看-想-动”闭环

几乎在同一时间,生数科技联合清华大学开源了大一统世界模型——Motus。该项目由清华大学计算机系TSAIL实验室的硕士生毕弘喆和博士生谭恒楷领衔,在具身智能领域实现了范式级的突破。

Motus的最大亮点在于,它在一个统一的Mixture-of-Transformer(MoT)架构内,首次整合了视觉-语言-动作(VLA)、世界模型、视频生成、逆动力学、视频-动作联合预测这五种关键的具身智能范式,实现了“感知—想象—决策—执行”的端到端完美闭环。

针对机器人领域长期存在的真机数据稀缺、成本高昂的瓶颈,Motus创新性地提出了“潜动作”(Latent Action)范式。研究团队利用光流技术提取互联网海量视频中像素级的运动轨迹,通过Delta Action机制将这些像素变化“翻译”成机器人的通用动作趋势,从而将大量无标签的互联网视频转化为有效的训练数据。

这一突破带来了惊人的性能提升。在RoboTwin 2.0仿真环境的50项任务评测中,Motus取得了约88%的平均成功率,相比国际顶尖的VLA模型Pi-0.5,成功率提升了35-40个百分点,数据效率更是对手的13.55倍。在真实机器人测试中,无论是叠衣服、解孔明棋还是完成Cloudflare人机验证等复杂任务,Motus都展现出了接近人类的预判和执行能力。

开源引领,共筑未来科研基础设施

两大模型的同时开源,释放出明确的信号:中国AI力量正从技术追赶转向前沿引领,并通过开源开放的方式,主动降低全球科研门槛,与学术界和产业界共同打造面向未来的科学智能生态。

“书生-S1-Pro”为深度理解物理世界规律、驱动跨学科科学发现提供了系统性的开源基座。而Motus则为具身智能的规模化扩展和统一智能体形态演进提供了关键的技术路径。它们分别从“认知”与“行动”两个维度,推动了AI for Science向2.0时代的纵深发展。

随着此类基础模型的持续开源与迭代,一个更开放、高效且自主可控的科学人工智能基础设施正在加速形成,有望在生物制药、新材料研发、高端制造、深空探测等诸多领域催生革命性的科研范式变革。