哈喽,大家好,今天小墨这篇评论,主要来分析顶级期刊信任危机,拆解 AI 科研时代的虚假突破与诚信底线。
当 AI 赋能科研的欢呼声席卷全球科技界,一场关于学术诚信的风暴已悄然来临。顶级期刊 Nature、Science 接连曝出科研成果缺陷,谷歌、微软等巨头的前沿研究深陷争议。
这些曾被奉为 “突破性进展” 的成果,如今被指存在数据重复、验证失效等问题,让全球科研界不得不重新审视 AI 时代的科研范式。
2023 年,谷歌 DeepMind 团队在 Nature 发表的 GNoME 研究惊艳全网。该 AI 工具号称发现 220 万个全新晶体结构,其中 38 万种为稳定材料,宣称能为半导体、电池技术带来革命性突破。
研究发布后短短两年引用数千次,成为 AI 赋能科研的标杆案例。英国利物浦大学维塔利・库尔林团队的检测,却揭开了这场狂欢的面纱。通过新型重复检测技术,团队发现 GNoME 数据库中大量晶体结构存在重复或高度相似情况。
超过 10% 被标记为 “稳定” 的晶体,只是在已有结构上替换一两个原子,根本算不上新发现。质疑声中,GNoME 数据库悄悄删除 8.3 万条内容,谷歌方面始终未作公开说明。无独有偶,同一年 Nature 发表的美国劳伦斯伯克利国家实验室 A-Lab 研究,声称 17 天合成 43 种新材料。
量子计算领域的前沿研究同样难逃验证危机。2025 年初,微软在 Nature 发表的马约拉纳量子比特研究引发广泛争议。
谷歌声称该芯片 5 分钟内完成的计算,传统超算需要 10²⁵年才能完成。多位科学家对这一性能定义提出异议,IBM 研究人员更是直接指出,谷歌解决的问题在经典计算机上 2.5 天内即可完成,且准确度更高。
这一案例与国际顶级期刊的争议相互呼应,凸显全球科研诚信治理的紧迫性。学界已就重建 AI 时代科研信任达成共识。核心举措包括将库尔林团队的重复检测工具整合到 AI 研发流程,在数据输出前自动筛选重复内容。
同时强化同行评审针对性,要求 AI 生成大规模数据集的研究者,提供抽样验证报告及重复检测证明。国家层面也在完善相关规范,国家互联网信息办公室公布的《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,明确要求围绕模型研发训练等核心环节,开展训练数据伦理审查,划定安全底线红线。
顶级期刊的信任危机,是 AI 科研范式转型的阵痛。科研的核心价值在于探索未知,AI 终究是辅助工具而非造假捷径。
唯有坚守真实性与透明度底线,完善评估体系与伦理规范,才能让 AI 真正成为推动科学进步的动力,守护科研领域的纯粹与严谨。
热门跟贴