「我花了两周时间试图证明一个引理,结果完全失败。」加州理工学院的数学教授Matilde Marcolli在邮件里写道,「然后我把问题丢给AI,它给了我一个证明。」
这不是什么科幻场景。2026年春天,数学家们正在经历一场悄无声息的革命——AI从"辅助工具"变成了"合作者",而且没人觉得这是作弊。
一张图看懂:数学家的AI工作流
Marcolli的经历很有代表性。她研究的领域是算术几何,一个连很多数学家都觉得头疼的方向。过去,证明一个引理需要反复试错、查阅文献、和同事讨论。现在,她把问题描述给AI,AI会生成一个证明草稿。
关键转折点在这里:Marcolli没有直接采用AI的答案。她花了两周时间验证这个证明——检查每一步逻辑,确认没有隐藏假设,最终发现AI是对的。
「它给了我一个完全正确的证明。」她说。
这种工作模式正在扩散。普林斯顿高等研究院的数学家Akshay Venkatesh也在用类似的方式研究。他的团队把AI生成的猜想当作"灵感来源",然后人工筛选、验证、完善。
注意这个分工:AI负责"提出",人类负责"判断"。这和程序员用Copilot写代码、设计师用Midjourney出草图,本质上是同一种协作逻辑。
为什么数学家突然"松口"了?
数学界对工具的容忍度一向很低。计算器被接受花了几十年,计算机辅助证明(如四色定理)曾引发巨大争议。但这次不一样。
核心原因是验证机制的存在。数学证明可以被独立检验,这是它和其他学科的本质区别。AI生成的东西再离谱,只要经得起人工审核,就可以被接纳。
另一个被低估的因素:数学研究的"瓶颈"变了。
过去,瓶颈是"计算能力"——人类算得太慢。计算机解决了这个问题。现在,瓶颈是"模式识别"——在海量已知结果中发现隐藏联系。AI恰好擅长这个。
牛津大学的数学家Kevin Buzzard正在做一个实验:用AI扫描数万篇数论论文,寻找被忽略的推论。这在十年前需要一支研究生团队干好几年,现在一台服务器跑几周就能出初步结果。
争议区:这还算"原创"吗?
不是所有数学家都买账。菲尔兹奖得主Timothy Gowers公开质疑:如果核心想法来自AI,论文的作者栏该怎么写?
更实际的担忧是"依赖陷阱"。年轻研究者如果过早习惯AI辅助,会不会丧失独立构造证明的能力?就像用导航开车的人,逐渐记不住路线。
Marcolli的回应很直接:「AI不会让我变笨,就像图书馆不会让我变笨一样。」
她的观点是工具论——AI只是更快的检索+组合,真正的数学直觉仍然来自人类。但她也承认,这种平衡很微妙,需要刻意维持。
商业视角:谁在为数学家的AI买单?
这场革命背后有清晰的商业逻辑。
DeepMind的AlphaGeometry、OpenAI的o3模型、Anthropic的Claude,都在高调展示数学解题能力。这不是做慈善——数学能力是通用智能的"试金石",谁能搞定IMO(国际数学奥林匹克)级别的题目,谁就能在资本市场讲出更好的故事。
更隐蔽的赛道是"形式化数学"(formal mathematics)。把数学证明翻译成机器可验证的代码,这个领域突然变得热门,因为AI可以在这个过程中充当"翻译官"。
微软研究院在Lean语言上的投入、Meta对Isabelle的支持,本质上都是在赌:未来的数学知识库会是AI可解析的结构化数据,谁先建立标准,谁就能制定规则。
实用建议:如果你是技术从业者
这场变化对非数学家有直接启发。
第一,验证优先。AI输出的价值不取决于生成速度,而取决于可验证性。如果你的领域没有数学证明那样的硬校验机制,你需要人为建立它——单元测试、对抗审查、多源交叉确认。
第二,重新定义"原创"。当AI成为标准工具,人类的贡献会从"从零构造"转向"筛选组合+质量把关"。这听起来降级了,但实际上对判断力提出了更高要求。
第三,关注形式化方法。软件工程里的形式验证(formal verification)、法律领域的合同结构化、医疗的诊断路径标准化——这些"把模糊知识变成机器可读格式"的工作,都会因AI辅助而加速。
Marcolli在邮件结尾写了一句耐人寻味的话:「我现在更清楚自己作为数学家的价值在哪里了——不是算得快,而是知道什么值得算。」
这句话可以翻译给所有和AI共事的领域:工具越强大,人的价值越集中在"提问"和"判断"这两个环节。早点想清楚自己的不可替代性在哪里,比争论AI会不会取代你更有用。
热门跟贴