大模型常用RAG方法易受文档顺序影响,导致幻觉。Stable-RAG通过聚类文档隐藏状态、选取簇代表进行解码、并利用DPO进行对齐,有效解决了这一问题。实验证明,该方法能在多个数据集和模型上显著提升性能,且训练成本低,具有即插即用优点。
一、RAG 的“阿喀琉斯之踵”——文档顺序
检索增强生成(RAG)几乎成了大模型“祛幻觉”的标准动作:先检索、再拼接、最后让 LLM 回答。
但作者发现一个被忽视的现象:只要改变检索返回的 Top-5 文档顺序,即使黄金文档仍在列表里,模型答案也会“翻脸”——这叫Permutation-Induced Hallucination。
图1:LLaMA-3 各尺寸模型在 NQ 上的 PSR;黄金文档放得越靠后,模型越容易被带偏。
图1:不同位置黄金文档的幻觉率(PSR)
为什么?
作者把 120 种排列送进模型,逐层提取最后一个 token 的隐藏状态做谱聚类,发现:
- 浅层:不同顺序的表示混在一起
- 中层/高层:逐渐分化成多个簇,簇数 ≈ 最终答案类别数
- 敏感样本(10+ 簇)比稳定样本(1-2 簇)分化更剧烈
图2:层数越深,聚类越多,说明文档顺序在“高阶推理层”被放大。
二、方案:三步走,把顺序变成一致
Stable-RAG 核心流程如图4 所示:
图4:Hidden State Clustering → Representative Decoding → DPO 对齐
① 隐藏状态聚类(Hidden State Clustering)
- 对每 query 枚举 5! = 120 种文档顺序,取最终层最后一个 token 表示
- 构建余弦相似度图,用谱聚类自适应确定 K 个“推理模式”
- 每个簇选最接近中心的表示作为簇代言人,只需解码 K 次(K≈3~5)
② 偏好数据构造(Preference Data)
把簇代言人答案与真值对比,分成 4 类信号:
| 类型 | 偏好 y_w | 非偏好 y_l | 作用 |
|---|---|---|---|
| PC(部分正确) | 最频繁的正确答案 | 最频繁的错误答案 | 让模型“稳住”正确推理 |
| FU(全错+无法答) | “I don’t know” | 最频繁错答 | 鼓励拒答,抑制幻觉 |
| FA(全错+可答) | 黄金答案 | “I don’t know” | 强制学正确知识 |
③ DPO 对齐
用 Direct Preference Optimization 在构造好的 (x, y_w, y_l) 三元组上微调,不改动模型架构,只调 LoRA 参数(r=128)。
三、结论:Stable-RAG 三问
| 问题 | 答案(实验证据) |
|---|---|
| 能涨点吗? | 在 NQ、TriviaQA、HotpotQA 上,Stable-RAG 比最强基线平均+4.5 SubEM / +3.7 F1(表2)。 |
| 跨模型/跨检索器稳吗? | LLaMA-3-8B、Qwen3-8B、DPR/Contriever、Top-3~Top-10 全部一致提升(图5)。 |
| 开销大吗? | 只用15 k 训练样本即可饱和,比全排列解码节省3× 标注成本(图7)。 |
表2:Stable-RAG 在 3 数据集 × 2 检索器上全面 SOTA;♣ 为“全排列”版本,性能几乎持平但更耗资源。
表2:主实验结果
图5
图7
四、一分钟 Take-away
- 文档顺序不是“小扰动”,而是 RAG 的系统性盲区。
- 深层隐藏状态的聚类数可量化模型不稳定性,直接拿来当监督信号。
- Stable-RAG 用“聚类-代言-对齐”三板斧,把排列敏感转化为一致性奖励,零推理开销、即插即用。
如何学习AI大模型?
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习和面试资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
第一阶段:从大模型系统设计入手,讲解大模型的主要方法;
第二阶段:在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;
第三阶段:大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;
第四阶段:大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;
第五阶段:大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;
第六阶段:以SD多模态大模型为主,搭建了文生图小程序案例;
第七阶段:以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。
👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;
• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;
• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;
• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。
1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集
👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓