优化CUDA Kernel这件事,刚刚被AI狠狠地冲击了一波。 因为现在,给AI十四个小时,它就能帮你把CUDA Kernel优化,加速比从2.6×推至35.7×! 什么概念? 以前人类资深CUDA工程师要完成这个任务,需要数月反复测试、调优、推翻重来才行;但现在,AI在你睡觉的时候就能解决掉。 而且AI在这个过程中还展现出了专家级的直觉。 例如在优化初期,它尝试在现有高层框架内寻找解法,但很快通过自主跑测试发现性能触及了天花板,然后它便做出了人类专家才有的决策—— 自主判断放弃高层框架,直接转向底层C++进行硬核重写。 整整14个小时里,这个AI主打一个全自动:AI自己发现瓶颈,自己改变技术栈,自己重新编译,自己测试。 那这到底是何许AI是也? 不卖关子,正是大家熟悉的,来自智谱的开源模型——GLM-5.1。 随着这次长程任务(Long Horizon Task)能力的提升,智谱官方也宣布了一个重要的突破: 首次解锁了开源模型与当前全球最顶尖闭源模型Claude Opus 4.6的全面对齐! 嗯,是妥妥稳坐全球最强开源模型宝座的感觉了。 而且,从更多的权威评测榜单中来看,也是印证了这一点。 在被称为“软件工程能力试金石”的SWE-bench Pro基准测试中,GLM-5.1刷新了全球最佳成绩,直接超越Claude Opus 4.6、GPT-5.4等一众头部模型,拿下全球第一:【图2】。 甚至在海外网友们的圈子中,已经吹起了弃用Claude Max的风了:它的手感和Opus一模一样,使用额度是Claude Code的3倍,成本却只有1/3。【图3】 HuggingFace CEO也出面站台,称SWE-Bench Pro中性能最强的模型开源了:【图4】。 而这一切成绩的背后,正是智谱面向小时级的长程任务能力。
行业密探


JPG
长图
JPG
长图
JPG
长图
JPG
长图
JPG
长图
JPG
长图