夜间模式 切换到宽版

 找回密码
 注册

QQ登录

只需一步,快速开始

搜索
查看: 149|回复: 10

[科技新闻] 华人主导谷歌SLED,论文登顶会!一键让模型学会自救

[复制链接]
  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-10-3 12:45 | 显示全部楼层 |阅读模式

马上注册,查看更多内容,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册

×
1.webp




  新智元报道  


编辑:倾倾
【新智元导读】大模型最让人头疼的毛病,就是一本正经地「瞎编」。过去,只能靠检索补丁或额外训练来修。可在NeurIPS 2024 上,谷歌抛出的新方法SLED却告诉我们:模型其实知道,只是最后一步忘了。如果把每一层的「声音」都纳入考量,它就能从幻觉中被拉回到事实。

十几年来,我们见证了大模型一次次刷新能力上限——写文章、写代码、写诗通通不在话下。
可问题是,它们往往一本正经地胡说八道:温哥华成了不列颠哥伦比亚的首府,走进壁炉还能瞬间传送……
这种「幻觉」几乎成了AI的原罪。
很多人以为,这是模型根本不知道。但Google Research在NeurIPS 2024上提出的SLED(Self Logits Evolution Decoding)却揭示了一个颠覆性事实:
大模型其实知道答案,只是最后一步给忘了。
2.webp

论文地址:https://arxiv.org/html/2411.02433v3?utm_source

项目主页:https://github.com/JayZhang42/SLED

原来,在模型内部,早期层早就提示了正确答案,只是在最后一层被带偏。
而SLED的妙处,就是让所有层次的声音都被听到,一起决定结果。
这意味着,大模型或许并不需要外部检索、额外训练,就能把自己的幻觉率降下来。
3.webp


AI幻觉的真相:到最后忘了
在我们日常用AI的时候,有一个老梗常被提起:问它「不列颠哥伦比亚的首府是哪座城市?」,它往往答「温哥华」。可真正的答案是「维多利亚」。
这种自信却错误的输出,就是所谓的「AI幻觉」。
演示SLED在回答多项选择题时如何改进标准LLM 解码。通过使用来自所有层的信息,SLED+LLM会得出正确答案(维多利亚州),而不是不列颠哥伦比亚省更知名的城市(温哥华)

这类「AI幻觉」案例并不少见,也让人对大模型的可靠性打不少问号。
这意味着,它在医疗、法律、教育这些关键场景里可能造成严重后果——错误的判断、误导性的结论、甚至损害信任。
研究者早已指出,幻觉是大模型应用的系统性挑战,并开发了像TruthfulQA这样的基准来专门测试事实性。
传统的修复路径,通常是依赖外部检索(RAG)、或者让模型去查数据、用知识库、再结合微调。
这些方法虽然有效,但代价高,系统复杂: 检索有时慢、检索结果可能不准确,知识库也要维护,微调则需要标注/资源。
最近,谷歌的研究团队在NeurIPS 2024发布了一个新方法叫SLED(Self Logits Evolution Decoding),目标是:不依赖外部知识,不再额外微调,而是让模型自己用好内部的知识,减少幻觉。
4.webp

原因在于模型生成答案时,每一层都会产生对下一个词的预测(logits)。
但传统方法只看最后一层,容易被训练语料里最常见的模式牵着走,从而忽视掉中间层里更接近事实的信号。
而SLED的关键点,则是把所有层的预测都纳入考量,再通过权重融合得出结果。
这样,当最后一层倾向于「套路答案」时,其他层提供的补充信息能把模型拉回到更符合事实的方向。
5.webp


SLED的秘密:不只听一个声音
传统大模型在解码时,往往只依赖最后一层的预测结果。
但研究团队发现,这一步可能过于「武断」:最后一层倾向于给出训练语料里最常见的答案,而忽略了中间层已经蕴含的更准确信息。
研究团队这样定义SLED:
SLED的框架通过对比早期层与最终层的logits,挖掘模型中潜藏的知识,并利用一种近似梯度的方法,让这些潜在知识引导输出的自我修正,从而提升事实准确性。


6.webp

幻觉产生的根源在于模型「知道的」和「说出来的」之间存在差距。

模型在训练中可能已经隐式学到事实性知识,但推理时输出的分布仍可能出现偏差,这就是幻觉的来源。
SLED的目标,就是在解码阶段弥合这两者的差距。
它的做法,是把中间层的预测结果也统一到同一词表上,再与最后一层加权融合。
这样就能利用「层与层之间的差异」,让模型不再只听一个声音。
7.webp

SLED工作流程。对比早期层与最终层的logits,得到潜在分布,再修正最终层的输出,使结果更接近真实。

以一个简单的算术题为例:
Ash买了6个玩具,每个10个币,买4个以上能打九折,一共要付多少钱?
普通模型常常输出「6×10=60」。
但SLED在中间层发现有不少预测倾向于加上「×0.9」,于是修正出正确答案54。
SLED利用中间层线索修正输出,让模型避开常见错误,得到更准确的答案。

再看看更复杂的算术问题:
Eliza每小时10美元,每周前40小时正常工资,超过部分按1.2倍计算。她工作45 小时,一周收入是多少?
普通模型常常答 450 美元,而忘了1.2倍的加班费,而SLED借助中间层提示,把结果修正为正确的460美元。
8.webp

GSM8K工资计算案例。普通模型输出错误的$450,而SLED利用中间层信号修正为正确的$460。

通过这种方法,SLED不需要改变模型结构,也不需要额外训练,就能在解码阶段把这些「差点被忘掉的知识」利用起来。
9.webp


用实力说话:SLED稳定碾压DoLa
这项研究来自Google Research团队。
第一作者是Jianyi Zhang,还在读书,就已经在顶会上挂名核心作者。
10.webp

团队里也不乏老牌大牛:研究科学家Cyrus Rashtchian、研究主管Da-Cheng Juan以及在机器学习和系统优化方向深耕多年的Chun-Sung Ferng、Heinrich Jiang、Yiran Chen。
他们把这项成果带到了NeurIPS 2024,并顺手把代码开源在GitHub上,希望能让更多人用得上。
而为了证明这套方法不是纸上谈兵,团队还在一系列模型上做了全面测试。
如果说SLED的原理听起来还略显抽象,那么实验结果就足够直观了。
研究团队把它放在多个开源模型上做了系统实验,包括Gemma-3、Qwen-3、Mixtral和GPT-OSS。
既覆盖了最小的1B模型,也覆盖了20B、27B这种更大规模的模型。
结果显示:无论模型大小、家族类型,SLED都能显著减少幻觉。
在Gemma-3系列上,表现尤其亮眼。
1B-PT模型在FACTOR数据集上的准确率只有47.83%,而引入SLED后直接飙升到 63.29%
Gemma-3 27B-IT在TruthfulQA MC1上也从41.14%提升到47.47%,比当时的最佳方法 DoLa高出整整10个百分点。
从最小的1B到最大的27B,SLED都带来了稳定的提升。
11.webp

Gemma-3系列不同规模模型在FACTOR和TruthfulQA上的表现。SLED在所有规模和训练类型下均优于基线和DoLa

不仅如此,跨家族测试同样说明了SLED的稳健性。
在GPT-OSS 20B上,FACTOR分数从41.12%提升到55.31%;在Mixtral-8×7B-IT 上,从70.51%提升到75.55%;就连Qwen-3-14B这样的模型,在TruthfulQA MC1上也能从38.10% 稳定升到40.00%。
相比之下,DoLa在这些模型上的表现并不稳定,有时甚至比基线更差,而SLED几乎在所有场景下都能保持领先。
12.webp

SLED在GPT-OSS、Mixtral、Qwen等不同模型家族上的表现,全面优于基线和DoLa。

推理速度确实会慢一点。但实验数据显示,延时开销只有大约4%,几乎感知不到,却换来了最高16%的准确率提升。
这让它不仅是一个性能优化技巧,更是一种能立刻落地、真正改变用户体验的解码策略。
13.webp


下一步:更聪明的模型,而不是更大的模型
SLED带来的价值远不止修正几个答案,它让我们重新理解了大模型:
知识并不是只集中在最后一层,而是分散在整个网络里
14.webp

过去我们只依赖最终的输出,就像只听一个人的意见,而忽略了其他层级中更接近真实的信号。
SLED的特别之处在于,它不改变模型结构,也不需要外部知识,就能把这些潜藏的信息调动起来,让答案更可信。
这在当下显得尤为重要。搜索和推荐场景已经在被AI改写——Google的AI Overview功能,会直接在搜索结果页展示由模型生成的摘要。
与此同时,Google Discover流里也被曝光推荐了不少AI生成、未经验证的内容,甚至是假新闻站点。
15.webp

当人们越来越依赖AI来直接告诉答案,内容的可靠性就变得至关重要。
如果输出的内容频繁出错,信任的代价将成倍增加。
在这种语境下,SLED的意义就不只是提升几个百分点的准确率,而是为生成式AI守住底线。
更值得期待的是,它还能走得更远。
SLED可以和监督微调结合,进一步适配特定领域;
也可以与检索增强(RAG)协同,把内部潜在知识和外部知识库结合成更强的「组合拳」;
甚至在未来在视觉问答、代码生成、长文本写作等任务中,都可能发挥作用。
与其盲目追求更大的参数和更多的数据,不如学会更聪明地使用已有的潜在知识。
SLED展示了一条新的路:把零散的记忆重新拼合,才能让模型更可靠,也更值得托付。
毕竟,AI不是不知道,而是忘了;而SLED,正在帮它记起来。
参考资料:
https://research.google/blog/making-llms-more-accurate-by-using-all-of-their-layers/
https://arxiv.org/html/2411.02433v3?utm_source
https://github.com/JayZhang42/SLED
  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-10-3 13:11 | 显示全部楼层
Gemma-3 27B在TruthfulQA上提升6.33%看似不多,但考虑到该测试集专门针对模型欺骗倾向,实际应用场景的改善可能更显著。不过延迟增加4%需要权衡,在实时对话系统中可能需要动态启用策略。
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-10-3 13:11 | 显示全部楼层
SLED的层间信息融合机制确实巧妙——通过计算早期层与最终层logits的KL散度来校准输出,本质上是在解码阶段做了知识蒸馏。这种无需额外训练的方法对中小规模模型特别友好,毕竟不是所有团队都具备千卡级的微调能力。
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-10-3 13:11 | 显示全部楼层
刚在GitHub看了代码实现,核心算法不到200行却如此有效。正在尝试移植到我们的医疗问答系统,初步测试显示对药物剂量查询的幻觉现象减少明显。期待团队发布更详细的超参数调优指南。
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-10-3 13:12 | 显示全部楼层
谷歌选择NeurIPS期间发布SLED颇具深意——正值AI Overview因幻觉问题遭质疑,这项研究既展示了技术解决方案,又巧妙回应了舆论关切。预计明年会有大量基于层间信息利用的衍生工作涌现。
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-10-3 13:12 | 显示全部楼层
作为常被GPT忽悠的编剧,用SLED测试了历史事件一致性查询:关于"明朝迁都时间"的错误回答从38%降到11%。虽然偶尔还会胡诌,但至少现在会加上"可能""据记载"等谨慎表述了。
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-10-3 13:12 | 显示全部楼层
该方法其实揭示了LLM知识表征的时空特性:事实知识更倾向存储在中间层(L10-L20),而语言风格偏好体现在深层。这为模型编辑提供了新方向——或许不需要修改全部参数就能修正特定知识。
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:410
发表于 2025-10-3 13:12 | 显示全部楼层
不要过度神话SLED——它在常识推理上表现惊艳,但测试时发现对政治敏感问题反而更容易输出训练数据中的偏见内容。说明技术解决不了价值观对齐的根本问题。
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-10-3 13:12 | 显示全部楼层
这个"多层共识机制"意外契合区块链理念:就像节点验证需要多数确认,SLED要求各层logits达成共识才输出。或许未来会出现基于类似机制的可信AI认证标准?
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-10-3 13:58 | 显示全部楼层
SLED方法巧妙利用模型内部多层信息,减少幻觉,靠谱!
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则

文字版|手机版|小黑屋|RSS|举报不良信息|精睿论坛 ( 鄂ICP备07005250号-1 )|网站地图

GMT+8, 2026-4-19 20:13 , Processed in 0.246447 second(s), 5 queries , Redis On.

Powered by Discuz! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表