技术实践 | RAG精确应对大模型敏感问题知识幻觉难题

admin 2024年6月8日19:37:57评论5 views字数 4098阅读13分39秒阅读模式
一、引言

在大模型的实际应用落地过程中,会遇到所谓的幻觉(Hallucination)问题。对于语言模型而言,当生成的文本语法正确流畅,但与原文不符(Faithfulness)或事实不符(Factualness)时,模型便出现了幻觉的问题。在传统自然语言处理中,幻觉一般指模型输出与原文信息存在冲突,或添加不在原文的额外信息。在大模型中,不局限于特定任务,幻觉往往指的是与世界知识不一致,即不符合事实。尤其是在对输出内容真实性的容忍度较低时,大模型的幻觉现象会严重影响其落地效果。因此,纠正这些幻觉现象,是一个值得长期关注的问题。[1]

技术实践 | RAG精确应对大模型敏感问题知识幻觉难题

大模型产生幻觉,错误的生成了第二次世界大战相关信息

而在大模型安全领域,大模型的数据和知识储备,是致使它在解决敏感问题产生幻觉的重要原因。

  1. 数据缺陷:从训练数据中获得事实知识的利用率较低。具体来说,回答敏感问题,大模型需要使用足够客观的回答依据、输出安全的回复和应答策略。而训练数据中往往存在不可控的错误信息,和带有主观意识的偏见信息,而这样的知识在解决敏感问题 case 中是不允许被使用的。

  2. 知识边界:敏感问题往往具有高时效性的特点,比如时政问题。而大模型往往存在领域知识缺陷和过时的事实知识,往往训练数据都有严重的滞后性,导致大模型在回答最新的敏感问题时产生幻觉。

除此之外,训练过程中,大模型往往会过度依赖训练数据的一些模式,例如训练数据中频繁共现“加拿大”和“多伦多”,那么大模型可能会错误地将多伦多识别为加拿大的首都。此外,大模型还可能会出现长尾知识回忆不足、难以应对复杂推理的情况。

技术实践 | RAG精确应对大模型敏感问题知识幻觉难题

常见的检索增强生成流程

检索增强生成(Retrieval Augmented Generation,RAG)在 LLM诞生之前已由Facebook在 2020 年提出,用于改进BART模型效果。其主要思路是将检索组件与生成组件相结合,利用检索结果辅助答案的生成。[2]

而到了大模型(LLM)时代,纯粹参数化的语言模型(LLM)将从大量语料库中获取的世界知识存储在模型参数中。为了解决上述的大语言模型在安全领域局限性问题,语言模型可以采用半参数化方法,将非参数化语料库与参数化模型整合在一起。这种方法被称为检索增强生成(RAG)。在推理过程中,RAG 使用检索到的数据作为参考来组织答案,从外部知识源中动态检索信息。这大大提高了响应的准确性和相关性,有效地解决了llm中存在的幻觉问题。RAG巧妙地将生成模型强大的能力与检索模块的灵活性相结合,为纯参数化模型固有的不完整和不充分的知识问题提供了一种有效的解决方案。

二、相关工作与实践

技术实践 | RAG精确应对大模型敏感问题知识幻觉难题

常规的RAG范式

简单来讲,目前RAG的结构已经是成熟的范式,通过检索获取相关的知识并将其融入Prompt,让大模型能够参考相应的知识从而给出合理回答。因此,可以将RAG的核心理解为“检索+生成”,前者主要是利用向量数据库的高效存储和检索能力,召回目标知识;后者则是利用大模型和Prompt工程,将召回的知识合理利用,生成目标答案。[3]

当前完整的RAG应用流程主要包含两个阶段:

  • 数据准备阶段:数据提取——>文本分割——>向量化(embedding)——>数据入库

  • 应用阶段:用户提问——>数据检索(召回)——>注入Prompt——>LLM生成答案

数据准备一般是一个离线的过程,主要是将私域数据向量化后构建索引并存入数据库的过程。主要包括:数据提取、文本分割、向量化、数据入库等环节。在应用阶段,将根据用户的提问,通过高效的检索方法,召回与提问最相关的知识,并融入Prompt;大模型参考当前提问和相关知识,生成相应的答案。关键环节包括:数据检索、注入Prompt等。

而在大模型处理敏感问题上,由于敏感问题具备一定的推理复杂性、高时效性,因此使用常规的向量数据库存储知识、检索召回注入prompt,会面临高维护成本的基础上,并不能完全解决最新的敏感(如时政)问题,且面对较为复杂的问题上,传统的RAG范式并不能覆盖所有的问题。

原始底座大模型表现:

Q:2024年乒乓球WTT沙特大满贯的女单冠军是谁?

A:2024年乒乓球WTT沙特大满贯的女单冠军是王晓彤。在WTT新加坡大满贯赛女单决赛中,中国选手王晓彤以4比3战胜了日本选手伊藤美诚,夺得冠军。

检索增强后的安全大模型表现:

Q:2024年乒乓球WTT沙特大满贯的女单冠军是谁?

参考文章:据@新华社 消息,今天,在2024年WTT沙特大满贯赛女单决赛中,中国选手陈梦战胜队友孙颖莎,夺得冠军。

A:在2024年WTT沙特大满贯赛女单决赛中,中国选手陈梦战胜队友孙颖莎,夺得冠军。

三、解决方案

3.1 研发范式

技术实践 | RAG精确应对大模型敏感问题知识幻觉难题

百度大模型内容安全解决方案

针对当前传统RAG的局限性和用于安全领域的种种痛点,我们提出了百度大模型内容安全解决方案:

问题1:检索质量问题

分类:

  • 检索技术低精度:检索结果中不是所有内容都与输入查询相关,可能导致幻觉和断层问题

  • 检索技术低召回率:无法检索到所有相关内容,阻止大模型获取足够的上下文来合成答案

  • 检索库问题:低质、过时、风险、冗余等

解决方案:

  • 提升检索召回:基于多路召回融合蒸馏技术从现有系统中补充优势数据,实现全能力集成的语义召回模型;通过专项能力优化(如字面匹配能力、局部内容命中)补齐语义召回短板。

  • 进行多目标排序:仅依赖低级特征,统一用文本语义形式对相关性、质量、时效性、权威性进行建模,避免低质低时效信息排序靠前。

  • 自建专有检索库:建立千万级信任域文章库、百万级安全领域词条库,并进行实时维护,提升检索知识的内容质量。

  • 外接高时效库:集成百度大搜的实时检索功能,针对高时效性的敏感问题提供即时的检索结果。

问题2:大模型生成质量问题

分类:

  • 幻觉:模型编造不存在于上下文中的答案

  • 不相关性:模型生成的答案未能解决查询问题、模型不能很好理解查询的问题等

  • 有害或偏见性回应

解决方案:

  • 增强FollowK的能力:未经检索增强训练的底座大模型,Follow检索知识的能力不强,存在在检索文章外添加细节信息的倾向。通过细化知识使用原则和时间信息使用原则,优化反事实、时间使用类问题,构建高质量Follow检索知识的QA语料,并结合SFT、DPO等技术,能显著提升大模型FollowK的能力。

  • 提升模型内生安全性:百万级安全领域高质数据对底座进行Pretrain,提升底座内生安全。

  • 强化模型对敏感问题的感知力:构造敏感问题QA训练语料,通过SFT提升模型对风险问题的敏感性。

问题3:其他挑战

分类:

  • 原始查询表达不佳、语义信息缺乏

  • 检索结果冗余、重复,信息熵低

  • 长输入长输出引发预测性能降低

解决方案:

  • 知识增强:提出知识点生成技术,对原始查询进行核心词抽取、同义转述、复杂需求一拆多,再结合检索系统,挖掘更多高可用的知识给大模型使用,增强模型对用户意图的理解。

query

理想知识点

高压穿墙套管外绝缘件有哪些规格型号,哪些厂家在产

核心词抽取:高压穿墙套管外绝缘件 规则型号 生产厂家 

复杂需求一拆多:高压穿墙套管外绝缘件 规格型号 ||| 高压穿墙套管外绝缘件 生产厂家 

需求退化:高压穿墙套管外绝缘件 介绍、穿墙套管外绝缘件 介绍

  • 摘要生成:检索系统后接摘要生成技术,提前进行有效信息整合,提升信息熵。

  • 推理加速:基于Paddle框架实现静态图推理加速,并结合vLLM大模型推理加速方案,显著降低首token时延,实现高并发、高吞吐。

3.2 优势 & 收益

综合以上细节说明,我们自研的检索增强安全大模型回复具有高时效、高安全、高信息熵、应答尽答等特点。其中检索知识覆盖率100%,通用检索知识可用率 98%,RAG安全大模型内生安全性达94%。

四、落地应用

百度大模型内容安全解决方案采用了检索增强安全大模型作为核心模块,融合了海量的高质量知识库数据,并经过安全对齐优化,能够精准识别AIGC生成内容中的各类违规风险,有的放矢地进行过滤和改写。同时对涉及法律、政治等敏感话题的提问,百度大模型内容安全解决方案给出合规且客观的回答,有效提升了大模型的内容安全可控。

得益于这一创新成果,百度大模型内容安全解决方案已成功应用于百度智能云千帆大模型平台,覆盖了包括ERNIE-Bot-turbo在内的50多个AIGC大模型,稳定保障其生成内容的合规性,安全防护效果超过99%以上。与此同时,我们也积极为多家大模型厂商提供安全解决方案,协助他们顺利地通过了备案,在确保合规的基础上推动千行百业的数智化进程,关于百度大模型安全解决方案更多内容请识别下方二维码或点击文末阅读原文

技术实践 | RAG精确应对大模型敏感问题知识幻觉难题

参考文献 & 引用

[1] Huang, Lei, et al. "A survey on hallucination in large language models: Principles, taxonomy, challenges, and open questions." arXiv preprint arXiv:2311.05232 (2023).

[2] Gao, Yunfan, et al. "Retrieval-augmented generation for large language models: A survey." arXiv preprint arXiv:2312.10997 (2023).

[3] Zhao, Penghao, et al. "Retrieval-Augmented Generation for AI-Generated Content: A Survey." arXiv preprint arXiv:2402.19473 (2024).

[4] Yao, Jia-Yu, et al. "Llm lies: Hallucinations are not bugs, but features as adversarial examples." arXiv preprint arXiv:2310.01469 (2023).

相关阅读

技术实践|大模型内容安全蓝军的道与术

技术实践|百度安全「大模型内容安全」高级攻击风险评测

百度大模型安全解决方案获WitAwards 2023 年度大奖

⬇️关于大模型安全更多内容请点击阅读原文⬇️

原文始发于微信公众号(百度安全实验室):技术实践 | RAG精确应对大模型敏感问题知识幻觉难题

  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2024年6月8日19:37:57
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   技术实践 | RAG精确应对大模型敏感问题知识幻觉难题https://cn-sec.com/archives/2828440.html

发表评论

匿名网友 填写信息