你以为AI的极限就是ChatGPT那样问啥答啥?别天真了!最近圣路易斯华盛顿大学麦凯尔维工程学院的团队搞出个大新闻。

他们要造一台“发现机器”,直接跳过“答题”阶段,帮人类找到那些藏在数万亿变量里的最优解!这事儿还登上了《自然通讯》,连学术界都炸锅了!

要理解这事儿有多牛,得先搞懂AI的分类。领导研究的沙塔努·查克拉巴蒂教授把AI分成三类:推理机、学习机、发现机。

推理机就是ChatGPT那种,问它魔方怎么还原,它能立刻给步骤——因为这些步骤早就在训练数据里喂进去了。

学习机更厉害点,不用预设知识,自己摸索所有解法。但发现机才是王炸:它要在数万亿变量的复杂空间里,找到最快、最优的那一个解。这需要真·随机搜索能力,靠随机性而非固定逻辑逼近最优解,而这正是现在神经网络最头疼的地方。

就拿伊辛模型测试来说吧,这是物理学里的标准测试,用来衡量优化算法的能力,涵盖了超多现实复杂问题。现在最先进的神经网络面对高阶伊辛问题,直接歇菜——就像让小学生解微积分,根本不是一个量级的活儿!这让团队意识到:光靠神经网络内部逻辑不够,必须引入外部力量。

团队给出的方案是个混合架构,把两种完全不同的技术拼在了一起。第一个组件是神经形态自编码器:神经形态计算模仿人脑原理,效率比传统芯片高多了;自编码器能把海量数据压缩成紧凑的表征,就像人脑处理复杂信息时会抽象化一样,不断压缩和预测,直到精度达标。

打开网易新闻 查看精彩图片

第二个组件是福勒-诺德海姆退火算法:这玩意儿借鉴了量子力学,通过受控的噪声和随机性,让系统能“量子隧穿”式跳过局部最优解,直接奔着全局最优去。新一代芯片已经能支持这种操作,让“灵光乍现”的时刻可以被系统复现。

查克拉巴蒂说:“这俩就是你需要的全部成分,足够通用,能解决任何复杂问题!”

这套架构最牛的地方,是它的“收敛保证”——在计算领域,这简直是罕见的承诺!不管问题多复杂,哪怕机器要跑六个月或一年,它保证最终会给出有意义的最优解。对比传统超算:如果初始提示设置错了,研究者可能白等一年,啥都得不到。

查克拉巴蒂拿《银河系漫游指南》里的超级计算机“深思”举例子:深思花了数百万年才吐出“42”这个答案,让创造者一脸懵。但他们的发现机器不会这样:“六个月后,一定会出现有用的东西!”

这项研究由美国国家科学基金会资助,合作机构横跨印度科学研究所、德国海德堡大学、约翰·霍普金斯大学和加州大学圣克鲁兹分校。现在,“发现机器”已经从理论走向了能工程实现的具体路径。

想想看,这台机器要是真造出来,能解决啥?癌症的最优治疗方案?气候变暖的精准预测?甚至是宇宙的终极谜题?它不再是被动回答,而是主动去探索未知的最优解,这简直是AI的维度升级!

你最期待这台发现机器解决什么问题?是医疗、气候还是别的领域?评论区聊聊你的想法!毕竟,当科技能帮我们找到那些隐藏的最优解时,人类探索世界的速度,可能会被彻底改写!