技术的进步最终需要经受评测的检验。
GLM-5的论文不仅展示了其在传统榜单上的成绩,更揭示了一个趋势:大模型的测试正在变得更难、更贴近真实。
在Humanity’s Last Exam(HLE)、SWE-bench Verified、BrowseComp等关键榜单上,数据显示,GLM-5在SWE-bench Verified上得分77.8%,在开源模型中达到SOTA,优于Gemini 3 Pro,并与Claude Opus 4.5相当。
在HLE(含工具)测试中,GLM-5得分50.4,优于Claude Opus 4.5和Gemini 3 Pro。
在Artificial Analysis Intelligence Index v4.0中,GLM-5得到50分,成为新的开源SOTA模型,这是开放权重模型首次在该指数中达到50分。
然而,智谱团队认为,传统的SWE-bench已经不够看了。
因为它是一个静态、公开且发布超过2年的测试集,模型可能存在记忆效应。
为此,GLM-5团队推出了CC-Bench-V2,一个完全自动化的、模拟真实软件开发的评测集,涵盖前端、后端和长程任务。
在前端评估中,团队引入了Agent-as-a-Judge技术,通过GUI Agent模拟用户交互,验证生成项目的功能正确性。
结果显示,GLM-5的构建成功率(BSR)达到98.0%,在检查项成功率(CSR)上与Claude Opus 4.5具备竞争力。
在后端评估中,GLM-5在真实开源项目上的Pass@1达到25.8%,与Claude Opus 4.5相当,显著领先于GLM-4.7。
更值得一提的是长程任务评估。CC-Bench-V2通过挖掘已合并的Pull Request构建多步链式任务,评估模型在增量开发中的上下文跟踪与规划能力。
虽然GLM-5在此项上较GLM-4.7有显著提升,但与Claude Opus 4.5仍有差距。团队坦言,这是因为链式任务中错误会累积放大,缩小这一差距需要在长上下文一致性和长程自纠错方面继续突破。
这一系列评测结果释放了两个明确信号: