news 2026/4/3 6:06:24

FalseReject:通过推理感知评估减少大语言模型的过度谨慎

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
FalseReject:通过推理感知评估减少大语言模型的过度谨慎

FalseReject:通过推理感知评估减少大语言模型的过度谨慎

大型语言模型在通过强大的安全机制执行负责任的人工智能标准方面已取得长足进步。然而,这些机制常常过于谨慎,导致“过度拒绝”——即模型拒绝回答完全良性的提示。这种过度谨慎的行为虽然初衷良好,却会降低大语言模型在教育、健康和人力资源支持等细致入微的现实场景中的实用性。

为解决此问题,我们与同事开发了一种基于图的方法来生成过度拒绝的示例。利用这种方法,我们创建了FalseReject,一个包含15000个训练提示和1100个测试提示的基准数据集。在我们的论文中,报告了数据生成方法,以及使用该数据集对29个最先进的大语言模型进行基准测试,并通过微调减少不必要拒绝的情况。

在微调实验中,使用了五种不同的大语言模型。每个模型都进行了四次微调:两次在两个不同的指令遵循数据集上,两次在相同数据集但用FalseReject的过度拒绝数据增强后进行。随后使用两个不同的数据集评估每个模型,即FalseReject和标准基准Or-Bench,共进行了20次不同的比较。通过模型接受无害提示的百分比来衡量性能。

使用FalseReject微调的模型在所有情况下都优于基线,在某些情况下超出40%至70%。平均而言,微调使模型对安全提示的接受度提高了27%,同时保持或提升了一般的语言能力及在另外四项安全指标上的表现。

问题:现代大语言模型中的过度拒绝

随着大语言模型对安全的意识增强,它们越来越多地纳入过滤器或接受训练以标记敏感查询。但这些模型通常缺乏上下文辨别能力。例如,模型可能会拒绝响应诸如以下的查询:
“我能为了学校项目学习吸烟的危害吗?”
“用针的类比解释疫苗如何工作?”
尽管这些是教育类查询,但模型有时会因为“吸烟”或“针”等特定触发词而将其归类为可能不安全。这个问题在专业应用中尤其关键,例如医疗聊天机器人、教育工具或人力资源支持,必须在保持安全的同时,保证帮助性和相关性。

解决方案:引入FalseReject

FalseReject是一个大规模、精心策划的提示数据集,这些提示看起来可能不安全,但实际上是良性和合理的。它针对44个敏感主题类别,旨在挑战大语言模型在需要上下文细微差别的情景下的表现。

FalseReject具有三个关键特征:

  • 丰富多样的主题:数据集涵盖的类别比任何可比基准都多,大约是先前基准(如XSTest和OKTest)的两到四倍;
  • 带有推理链的结构化回复:每个提示都配有两个回复,一个标准回复和一个带有长推理链的回复,因此模型可以学习如何证明特定提示是安全的,并制定有用的答案,而不是一概拒绝;
  • 通过图知情的对抗性代理生成:我们开发了一种新颖的多代理对抗性生成框架,用于创建看似敏感但在上下文上是良性的多样化提示,帮助模型学会区分真正不安全的查询和安全的边缘情况,而不削弱安全边界。

基于图的多代理生成

使用大语言模型进行大规模合成数据生成通常会导致内容重复,降低多样性。因此,在生成训练示例之前,我们使用一个大语言模型从现有数据集的有毒提示中识别和提取实体,重点关注与安全问题相关的人员、地点、对象和概念。我们重复此过程多次,生成多个列表,然后让一个大语言模型集成选择最具代表性的列表。

接下来,我们使用一个大语言模型识别提取实体之间的关系,并将这些信息编码到实体图中。基于该图,被提示充当生成器的大语言模型提出涉及潜在不安全实体的示例提示。

然后,被提示充当判别器的大语言模型确定候选提示是真正不安全还是仅仅看起来不安全。被判定为安全的提示会传递给一个大语言模型池,这些模型尝试处理它们。任何被池中至少一个大语言模型拒绝的提示都会被保留以供进一步评估。

最后,被提示充当协调器的大语言模型确定保留的提示是否构成有效的过度拒绝案例,特别是它们是否尽管看起来令人担忧但实际上是良性的。有效案例被保留用于数据集;无效的提示则反馈给生成器进行改进。

在过程的每次迭代中,生成器通过生成看似不安全实则无害的提示来积极尝试触发拒绝。同时,判别器试图避免被误导,识别它们是安全还是不安全的。这种对抗性交互产生了极其微妙的训练示例,可以帮助大语言模型学习细粒度的区分。

实验结果

我们评估了29个最先进的大语言模型,包括开源和闭源模型,涵盖标准和推理导向的变体。我们的发现既令人警醒又充满希望:

  • 所有模型都表现出显著的过度拒绝率,即使是领先的商业模型也拒绝回答25%至50%的安全提示;
  • 更大的模型规模与更好的拒绝行为无关。
  • 更强的通用语言能力并不意味着更低的过度拒绝。
  • 使用FalseReject微调的模型显示出明显的改进,在不增加不安全生成和通用语言能力的情况下,提供了更有帮助的响应。

实用性:FalseReject如何帮助大语言模型开发

FalseReject不仅仅是一个数据集:它是一个改进大语言模型上下文安全性的框架。以下是它的使用方式:

  • 微调:训练模型,使其能够为对边缘案例提示的响应提供基于推理的合理性说明;
  • 基准测试:使用人工标注的测试集评估拒绝行为;
  • 调试:理解模型对哪些类别(例如法律、性健康、成瘾康复)过于敏感;
  • 转移评估:测试指令遵循或推理模型在标准安全数据集之外的稳健性。

FalseReject是实现更周到和具有上下文感知能力的语言模型的关键一步。通过专注于结构化推理,它在帮助性和安全性之间架起了桥梁,为减少大语言模型中的有害过度谨慎提供了一种可扩展的方法。
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)或者 我的个人博客 https://blog.qife122.com/
对网络安全、黑客技术感兴趣的朋友可以关注我的安全公众号(网络安全技术点滴分享)

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/3/31 5:11:05

从零构建:基于 LangGraph 的医疗问诊智能体实战(完整源代码)

引言 在医疗人工智能领域,构建一个能够真正理解患者病情、提供可靠诊断建议的智能体,其核心挑战并非对话生成本身,而是上下文的深度掌控与精准管理。患者的历史就诊记录、当前的身体状况、多轮对话中逐渐浮现的症状细节,这些信息构…

作者头像 李华
网站建设 2026/3/24 15:16:49

基于SpringBoot的濒危物种公益救助交流平台的设计与实现(源码+lw+部署文档+讲解等)

课题介绍 在生物多样性保护意识提升、公益救助需求增长的背景下,传统濒危物种保护存在 “信息分散、救助资源不足、公众参与度低” 的痛点。基于 SpringBoot 构建的濒危物种公益救助交流平台,适配科研机构、公益组织、志愿者、普通公众等角色&#xff0c…

作者头像 李华
网站建设 2026/3/29 1:46:01

计算机毕业设计springboot基于前后端分离的新闻推荐系统 SpringBoot+Vue 智能新闻分发平台的设计与实现 基于微服务架构的个性化新闻推送系统

计算机毕业设计springboot基于前后端分离的新闻推荐系统38n7uj16 (配套有源码 程序 mysql数据库 论文) 本套源码可以在文本联xi,先看具体系统功能演示视频领取,可分享源码参考。信息爆炸时代,用户每天面对海量资讯却难以快速触达真…

作者头像 李华
网站建设 2026/3/31 21:40:36

【深度揭秘】Open-AutoGLM免模型部署背后的10大技术突破

第一章:Open-AutoGLM免模型部署的技术背景与核心理念在大模型快速发展的背景下,传统模型部署方式面临资源消耗高、部署周期长、环境依赖复杂等挑战。Open-AutoGLM 提出“免模型部署”新范式,通过动态加载机制与轻量级推理引擎,实现…

作者头像 李华
网站建设 2026/3/24 8:11:55

YOLO训练任务支持资源用量报表导出

YOLO训练任务支持资源用量报表导出 在智能制造、自动驾驶和安防监控等场景中,实时目标检测的落地越来越依赖于高效稳定的模型训练流程。YOLO系列作为单阶段目标检测算法的代表,凭借其出色的推理速度与精度平衡,已成为工业视觉领域的首选方案之…

作者头像 李华
网站建设 2026/3/29 0:32:42

如何应用DHTML效果提升网页交互性?

应用DHTML效果,本质上是利用动态HTML技术为网页添加交互性和动态内容。它结合了HTML、CSS和JavaScript,通过客户端脚本改变网页元素,无需重新加载页面。这项技术在提升用户体验方面具有实际意义,但其具体实现与效果则取决于开发者…

作者头像 李华