1. 首页 > 科技 > 数码资讯

三大关键技术看RAG如何提升LLM的能力

大语言模型表现出色,但是在处理幻觉、使用过时的知识、进行不透明推理等方面存在挑战。检索增强生成(RAG)作为一个新兴的解决方案,通过整合外部知识库的数据,提高了模型在知识密集型任务中的准确性和可信度,能够实现知识持续更新和特定领域信息的集成,有效将LLM的内在知识与外部数据的巨大动态资源相结合。

大模型应用面临的挑战

大语言模型(如GPT系列、LLama系列、文心一言等),已经在自然语言领域的多项基准测试中取得突破性进展。然而,它们在处理特定领域或者一些高度专业化的场景时存在一些局限性。

为了应对这些挑战,主要有以下几种类型的解决方案:

什么是RAG

顾名思义,RAG (Retrieval-Augmented Generation), 主要包括3个关键过程(Retrieval、Augmentation和Generation),它主要通过从外部知识库中“检索”最新信息作为外挂来“增强”LLM“生成”答案的效果。在回答问题或生成文本之前查询外部数据源并合成一个内容更加丰富的Prompt,从而显著提升输出的准确性和相关性。目前,RAG已经成为LLM系统中最流行的架构之一,因其高实用性和低门槛的特点,许多对话产品都是基于RAG进行构建。

RAG框架结构

从简单到复杂可以分为三个层次的RAG,包括Naive RAG、Advanced RAG、Modular RAG,如下图所示。

从Naive RAG说起

最基本的RAG方式,分为Indexing、Retrieval、Generation这3个步骤,简单而实用。

Naive RAG的一些局限性

Naive RAG的效果在检索质量、结果生成质量和增强的过程方面都存在一定的挑战。

Advanced RAG如何应对这些挑战

和Naive RAG相比,Advanced RAG加入了Pre-Retrieval 和 Post-Retrieval模块,同时对Retrieval模块也进行了一些优化,从而改进输出效果。

Pre-Retrieval

可以通过优化数据索引的方式来改进Pre-Retrieval阶段的质量。大致有5种策略可以使用:

这一阶段主要通过计算query和chunks的相似性来召回上下文,核心是embedding模型,Advanced RAG主要对embedding模型进行优化。

Post-Retrieval

在完成chunks检索并整合上下文提交给LLM生成最终结果前,可以通过ReRank和Prompt Compression的方式对文档进行优化。

Modular RAG

不同于Naive RAG和Advanced RAG,都有固定的一套流程,Modular RAG更多是增加了一些新的模块,并可以根据具体的需求对各个单一的模块进行组合得到新的架构模式。

新模块

新模式

Modular RAG是一个高度适应性的组织结构,它允许在RAG过程中替换或重新排列模块以适应特定问题的需求。传统的朴素RAG主要由“Retrieval”和“Read”模块组成,而高级RAG在此基础上增加了“Rewrite”和“Rerank”模块。然而,模块化RAG提供了更大的多样性和灵活性。

目前的研究主要探索两种组织模式:一种是增加或替换模块,另一种是调整模块之间的流程。通过这种灵活性,可以根据不同任务的需求定制RAG过程。

增加或替换模块策略旨在保持Retrieval-Read的核心结构,同时通过集成额外的模块来增强特定功能,如RRR模型中的Rewrite-Retrieval-Read过程。另一种方法是交换模块,如将LLM生成模块替换为检索模块,或者让LLM记住特定任务信息并进行输出,以处理知识密集型任务。

在调整模块之间的流程方面,重点在于增强语言模型和检索模型之间的交互。例如,DSP框架将上下文学习系统视为一个显式程序来处理知识密集型任务,而ITER-RETGEN方法则通过生成内容指导检索,并在检索-阅读的流程中迭代实施增强功能,显示了模块之间如何相互提升功能的创新方式。

优化RAG的pipeline

RAG系统中的检索过程优化关注于提高信息检索的效率和质量。通过集成多种搜索技术、改进检索步骤、引入认知回溯、实现多样化查询策略和利用嵌入相似性,研究人员致力于在检索效率和上下文信息的深度之间找到平衡点。

这些方法不仅增加了系统的灵活性,也可能提高RAG系统在处理知识密集型任务时的表现,但也需要注意,这些方法可能在模型对特定主题不够熟悉时产生错误。

Retriever模块

在 RAG 的背景下,从数据源中高效检索相关文档至关重要。然而,构建一个熟练的检索器面临着巨大的挑战。本节探讨了三个基本问题:1)我们如何实现准确的语义表示?2)什么方法可以对齐查询和文档的语义空间?3)检索器的输出如何与大语言模型的偏好保持一致?

如何得到准确的语义表征?

在 RAG 中,语义空间至关重要,因为它涉及查询和文档的多维映射。该语义空间中的检索准确性会显着影响 RAG 结果。本节将介绍两种构建准确语义空间的方法。

如何匹配query和文档的语义空间?

在检索增强型生成(RAG)应用的背景下,检索器可能使用单一的嵌入模型来同时编码查询和文档,或者为每个部分采用不同的模型。此外,用户的原始查询可能存在措辞不准确和缺乏语义信息的问题。因此,将用户查询的语义空间与文档的语义空间对齐至关重要。本节介绍了两种旨在实现这种对齐的基本技术。

这些方法的详细内容可以参考 如何利用查询改写技术改善RAG效果

如何对齐检索结果和大模型的输出偏好

在RAG(检索增强型生成)流程中,虽然通过各种技术提高检索命中率可能看起来有益,但这并不一定能改善最终结果,因为检索到的文档可能并不符合大型语言模型(LLM)的具体要求。因此,本节介绍了两种旨在将检索器输出与大型语言模型的偏好对齐的方法

REPLUG计算检索到的文档的概率分布,然后通过计算KL散度进行监督训练。这种简单有效的训练方法利用LM作为监督信号提高检索模型的表现,无需特定的交叉注意力机制。

UPRISE同样使用固定的LLM微调提示检索器。LLM和检索器都以提示-输入对作为输入,并利用LLM提供的分数指导检索器的训练,有效地将LLM视为数据集标注器。

此外,Atlas提出了四种监督微调嵌入模型的方法:注意力蒸馏、EMDR2、困惑度蒸馏和LOOP,它们旨在提高检索器和LLM之间的协同作用,提升检索性能,并使对用户查询的回应更加精确。

Generator模块

RAG的核心是生成器,它结合检索器提取的信息,生成准确、相关的连贯文本。输入不仅限于上下文信息,还包含相关文本片段,使得回答更丰富、相关。生成器确保内容与信息的连贯性,并在生成阶段对输入数据进行精细调整,以适应大型模型。后续小节将探讨检索后处理和微调生成器。

如何通过Post-retrieval过程增强检索结果

在大型语言模型(LLM)的应用中,研究者依赖于如GPT-4这类先进模型来综合处理不同文档的信息。但LLMs面临上下文长度限制和对冗余信息处理的挑战,为此,研究转向了检索后处理,以提升检索结果质量和更好地满足用户需求。检索后处理通常包括信息压缩和结果重排序。

Fine-tuning LLM for RAG

在RAG模型中,生成器的优化是提高模型性能的关键。生成器负责将检索的信息转化为与用户查询相关的自然文本。RAG区别于标准LLM的地方在于,它结合了用户的查询及检索器获取的结构化/非结构化文档作为输入,这对小型模型的理解尤为重要。因此,针对查询和检索文档的输入微调模型至关重要,通常会在微调前对检索到的文档进行后处理。RAG的生成器微调方法与LLM的通用微调方法保持一致。接下来的部分将介绍涉及不同数据类型和优化功能的研究工作。

Augmentation模块

在哪些阶段进行增强?

预训练阶段

在预训练阶段加强开放领域问答的预训练模型(PTM),研究者们探索了结合检索策略的方法。例如,REALM模型在遮蔽语言模型(MLM)框架中实施了知识嵌入和检索-预测流程。RETRO模型从零开始利用检索增强进行大规模预训练,减少了参数数量并在困惑度上超越了GPT模型。Atlas模型将检索机制融合到T5架构的预训练和微调阶段,而COG模型通过模拟复制现有文本片段,展现了在问答和领域适应方面的出色性能。随着模型参数的增长定律,研究者们正在预训练更大的模型,如RETRO++模型。这些模型在文本生成质量、事实准确性、降低毒性以及下游任务熟练度方面取得了显著进步,特别是在知识密集型任务如开放领域问答中。增强预训练的模型在困惑度、文本生成质量和任务特定性能方面优于标准GPT模型,且使用的参数更少。这种方法还面临一些挑战,如大量预训练数据集和资源的需求以及模型大小增加时更新频率的下降。然而,这种方法提供了模型弹性方面的显著优势,训练完成的增强检索模型可以脱离外部库独立运行,提高了生成速度和运营效率,这使得它成为人工智能和机器学习领域持续研究和创新的热门话题。

Fine-tuning阶段

RAG和微调是提升大型语言模型(LLMs)性能的重要手段,可以针对具体场景进行优化。微调有助于检索特定风格的文档,改善语义表达,并协调查询和文档之间的差异。此外,微调还可用于调整生成器产出具有特定风格和目标的文本,并可优化检索器与生成器间的协同作用。

微调检索器旨在提升语义表征的质量,通过使用专门的语料库直接微调嵌入模型来完成。此外,微调使检索器的能力与LLMs的偏好更好地协调,并针对特定任务提高适应性,同时增强多任务场景中的通用性。

微调生成器可以产出更加风格化和定制的文本,使模型能够适应不同的输入数据格式,并通过指令性数据集生成特定格式的内容。例如,在自适应或迭代检索场景中,LLMs可以被微调以产生推动下一步操作的内容。

协同微调检索器和生成器可以增强模型的泛化能力并避免过拟合,但这也会增加资源消耗。RA-DIT提出了一个轻量级的双指令调整框架,可有效地为LLMs增加检索能力并避免不必要的信息。

尽管微调存在专门数据集和计算资源的需求局限性,但它允许模型针对特定需求和数据格式进行定制,潜在地减少资源使用量。因此,微调是RAG模型适应特定任务的关键环节,尽管面临挑战,但能够提高模型的多功能性和适应性,是构建高效、有效检索增强系统的重要组成部分。

推理阶段

在RAG模型中,推理阶段是整合大型语言模型的关键环节。传统的Naive RAG在这个阶段整合检索内容指导生成过程。为克服其局限性,采用了在推理中引入更丰富上下文信息的高级技术。如DSP框架通过冻结的LMs与检索模型交换自然语言文本,丰富上下文提升生成结果;PKG为LLMs加入知识引导模块,使其检索相关信息而不改变LM参数;CREAICL通过同步检索跨语言知识增强上下文;而RECITE直接从LLMs采样段落生成上下文。

针对需要多步推理的任务,ITRG迭代检索信息以确定正确推理路径,ITERRETGEN采用迭代策略循环合并检索与生成,PGRA提出任务不可知检索器和提示引导重排器的两阶段框架。IRCOT结合RAG和思维链方法,在问答任务中提高GPT-3性能。这些推理阶段优化提供了轻量且经济的选择,利用预训练模型的能力,无需额外训练。它们的主要优势是在不变更LLM参数的同时提供任务相关的上下文信息。不过,此方法需细致的数据处理优化,并受限于基础模型的固有能力。为有效应对多任务需求,通常与分步推理、迭代检索和自适应检索等程序优化技术结合使用。

增强数据源

RAG模型的效果显著受到数据源选择的影响,这些数据源根据不同知识和维度的需求可分为非结构化数据、结构化数据和由大型语言模型生成的内容。技术树展示了利用这些不同类型数据进行增强的代表性RAG研究,其中三种颜色的树叶分别代表不同数据类型的应用。最初,RAG模型的增强主要依赖非结构化数据如文本,随后演变为包括结构化数据如知识图谱进行优化。近期研究动向更倾向于使用LLMs自我生成的内容来进行检索和增强。

非结构化数据的增强

RAG模型在处理非结构化文本时,涵盖了从单个词汇到短语乃至文档段落的不同检索单元,以不同的粒度来平衡精确性与检索复杂性。一些研究如FLARE采用主动检索方法,由语言模型触发,以生成低概率词的句子为基础进行文档检索,并结合检索上下文优化生成结果。RETRO则利用块级检索逻辑,通过前一个块的最近邻居来指导下一个块的生成,注意到为保持因果逻辑,生成过程需要确保仅使用前一个块的信息。

结构化数据的增强

结构化数据,如知识图谱(KGs),提供高质量的上下文并减少模型产生错误幻象。RET-LLMs 利用过去的对话构建知识图谱记忆以供未来参考。SUGRE 采用图神经网络(GNNs)来编码相关KG子图,通过多模态对比学习确保检索到的事实与生成文本之间的一致性。KnowledGPT 生成知识库(KB)搜索查询,并将知识存储在个性化的基础上,从而增强了RAG模型的知识丰富性和上下文性。

在RAG中利用LLMs生成的内容

在RAG模型的发展中,研究人员探索了从LLMs内部知识中获取增强信息的方法,以克服外部辅助信息的局限。通过对问题进行分类和选择性地应用检索增强(SKR),替换传统检索器为LLM生成器以产生更准确上下文(GenRead),以及迭代建立无界记忆池以自我增强生成模型(Selfmem),这些创新做法极大地拓宽了数据源在RAG中的使用,目的是为了提升模型的整体性能和解决任务的有效性。

增强过程

在RAG领域的实践中,一个单一的检索步骤后接生成步骤可能导致“中间迷失”现象,即单次检索可能带来与关键信息不符的冗余内容,影响生成质量。对于需要多步推理的复杂问题,这样的单一检索往往信息有限。为此,研究提出了迭代检索、递归检索和自适应检索等方法来优化检索过程,使其能够获取更深入、更相关的信息,特别是在处理复杂或多步查询时。自适应检索则可以根据任务和上下文的特定需求动态调整检索过程,提升了检索的灵活性和有效性。

迭代检索

在RAG模型的迭代检索过程中,为了为LLMs提供更全面的知识库,系统会根据初始查询和已生成的文本多次收集文档。这种方法能够增强答案生成的稳固性,但它可能会因为依赖特定的词汇序列来界定生成文本与检索文档的边界而导致语义不连贯和不相关信息的积累。针对特定数据场景,研究者们采用了递归检索和多跳检索技术,递归检索依赖于结构化索引来层次化处理数据,多跳检索则深入图结构化数据源提取关联信息。此外,ITER-RETGEN等方法将检索和生成融合在一起,通过检索增强的生成和生成增强的检索来处理特定任务,从而在后续的迭代中生成更好的回应。这些创新方法都在努力提升模型的性能和任务的有效性。llamaindex案例:

递归检索

递归检索常用于信息检索和NLP中,旨在通过迭代优化搜索查询来加深搜索结果的相关性和深度。这一过程通过反馈循环逐步精确至最关键的信息,从而增强搜索体验。例如,IRCoT利用思维链条来指导检索,ToC创建澄清树来优化查询中的模糊部分。递归检索对于初始用户需求不明确或信息需求专业化、细致的复杂搜索场景特别有效。这种方法的递归本质促使其持续学习和适应用户需求,经常能够显著提升用户对搜索结果的满意度。

自适应检索

自适应检索方法例如Flare和SelfRAG通过允许LLMs主动决定最佳的检索时机和内容来改进RAG框架,增强了检索信息的效率和相关性。这些方法都是LLMs在操作中主动判断的更广泛趋势的一部分,如AutoGPT、Toolformer和Graph-Toolformer等模型代理所展示的。例如,Graph-Toolformer主动地使用检索器、应用Self-Ask技术以及借助少量提示来启动搜索查询。WebGPT集成了强化学习框架以训练GPT-3模型在文本生成时自主使用搜索引擎。Flare通过监控生成过程中生成术语的概率来自动化检索时机。Self-RAG引入了“反思符号”,允许模型反思其输出,并自主决定何时激活检索,或由预定义阈值触发。Self-RAG通过使用批评分数来更新分数,使模型的行为更加定制化,并优化了检索决策过程。

LLM的优化因其日益增长的重要性而受到关注,提示工程、Fine-Tuning和RAG都有各自的特点,选择使用哪种方法应基于特定场景的需求和每种方法的固有属性。llamaindex案例:

RAG和Fine-Tuning的对比

RAG 类似于给模型一本教科书用于特定信息的检索,非常适合处理具体的查询。而 FT 类似于学生随时间学习并内化知识,更适合重现特定的结构、风格或格式。FT 通过加强模型的基础知识、调整输出和传授复杂指令来提高模型的表现和效率,但在融入新知识或快速迭代新使用场景方面相对较弱。

RAG 和 FT 并不互斥,实际上可以互补,有助于在不同层次上提升模型的能力。在某些案例中,结合使用 RAG 和 FT 可能能够实现最优性能。然而,涉及 RAG 和 FT 的优化过程可能需要经过多次迭代才能取得满意的成效。

RAG效果评估

RAG的快速进步和在自然语言处理领域的广泛应用使得RAG模型评估成为大型语言模型社区研究的一个重要领域。评估的核心目的是理解和优化RAG模型在各种应用场景中的性能。

过去,RAG模型的评估通常集中在它们在特定下游任务中的表现,并使用与任务相关的已建立评价指标,比如问答任务的EM和F1分数,事实核查任务的准确性指标。像RALLE这样的工具也是基于这些特定任务的度量标准进行自动评估的。

然而,目前缺少专门评估RAG模型独特特性的研究。接下来的部分将从特定任务的评估方法转向基于RAG独特属性的文献综合。这包括探讨RAG评估的目标、评估模型的不同方面,以及可用于这些评估的基准和工具。目标是提供一个关于RAG模型评估的全面概览,并概述那些专门针对这些高级生成系统独特方面的方法论。

评估对象

RAG模型的评估主要围绕两个关键组成部分展开:检索模块和生成模块。这种划分确保了对提供的上下文质量和产生的内容质量的彻底评价。

Evaluation Aspects

现代RAG模型的评估实践强调三个主要质量得分和四个基本能力,这些综合信息共同构成了对RAG模型两个主要目标——检索和生成的评估。

Quality Scores

RAG模型的评估实践关注三个主要的质量评分:上下文相关性、答案忠实度和答案相关性。这些评分标准从多个角度评价RAG模型在信息检索和生成过程中的性能:

需要的能力

RAG模型的评估覆盖了指示其适应性和效率的四个重要能力:噪声鲁棒性、负面拒绝、信息整合和反事实鲁棒性。这些能力对于评价模型在多样化挑战和复杂情境下的表现至关重要。

上下文相关性和噪声鲁棒性是评估检索质量的重要指标,而答案忠实度、答案相关性、负面拒绝、信息整合和反事实鲁棒性则是评估生成质量的关键。这些评估方面的具体度量标准在文献中进行了总结,但目前这些度量还不是成熟或标准化的评估方法。尽管如此,一些研究也已经开发出针对RAG模型特性的定制度量指标。

评估的Benchmarks和工具

这一部分介绍了RAG模型的评估框架,该框架包含基准测试和自动评估工具。这些工具提供用于衡量RAG模型性能的定量指标,并且帮助更好地理解模型在各个评估方面的能力。知名的基准测试如RGB和RECALL专注于评价RAG模型的关键能力,而最新的自动化工具如RAGAS、ARES和TruLens则利用大型语言模型来评定质量得分。这些工具和基准测试共同形成了一个为RAG模型提供系统评估的坚实框架,相关细节在下表中有所总结。

展望

RAG面临的挑战

尽管RAG技术已经取得了重大进展,但仍有若干挑战需要深入研究。其中包括如何处理LLMs的上下文窗口大小限制、提升RAG的鲁棒性、探索结合RAG和微调(RAG+FT)的混合方法、扩展LLMs在RAG框架中的角色、研究规模法则在RAG中的适用性,以及实现生产就绪的RAG。特别地,需要在RAG模型中找到平衡上下文长度的方法,提高对抗性或反事实输入的抵抗力,并确定RAG与微调的最佳整合方式。同时,需要确保RAG在生产环境中的实用性和数据安全,解决检索效率和文档召回率的问题。这些挑战的探索和解决将推动RAG技术向前发展。

RAG的模态扩展

RAG技术已经发展到不仅限于文本问答,而是包含图像、音频、视频和代码等多种数据模态。这一扩展催生了在各个领域整合RAG概念的创新多模态模型。例如,RA-CM3作为一个多模态模型,能够检索和生成文本与图像;BLIP-2利用图像编码器和LLMs进行视觉语言预训练,实现图像到文本的转换;而"Visualize Before You Write"方法则展示了在开放式文本生成任务中的潜力。音频和视频方面的GSS方法和UEOP实现了数据的音频翻译和自动语音识别,而Vid2Seq通过引入时间标记帮助语言模型预测事件边界和文本描述。在代码领域,RBPS通过检索与开发者目标一致的代码示例擅长处理小规模学习任务,而CoK方法则通过整合知识图谱中的事实来提高问答任务的性能。这些进展表明,RAG技术在多模态数据处理和应用方面具有巨大的潜力和研究价值。

RAG的生态

下游任务和评估

RAG技术在丰富语言模型处理复杂查询和生成详尽回答方面表现出极大潜力,它已经在开放式问题回答和事实验证等多种下游任务中展现了优异的性能。RAG不但提升了回答的精准度和关联性,还增强了回答的多样性和深度。特别在医学、法律和教育等专业领域,RAG可能会减少培训成本,提升与传统微调方法相比的性能。为了最大化RAG在各种任务中的效用,完善其评估框架至关重要,包括开发更加细致的评估指标和工具。同时,增强RAG模型的可解释性是一个关键目标,以便用户能更好理解模型生成回答的逻辑,促进RAG应用的信任度和透明度。

技术栈

RAG生态系统的发展显著受到其技术栈进化的影响。随着ChatGPT的兴起,LangChain和LLamaIndex等关键工具因其提供的丰富RAG相关API而快速流行,成为LLMs领域的核心工具。即便新兴技术栈在功能上不如它们,也通过专业化的服务来突显差异化,例如Flowise AI通过低代码途径使用户能够轻松部署AI应用。同样,HayStack、Meltano和Cohere Coral等技术因其独到的贡献而备受瞩目。

传统软件和云服务提供商也在拓展服务以提供RAG为中心的解决方案,如Weaviate的Verba和亚马逊的Kendra。RAG技术的演变呈现出不同的专业化方向,包括定制化、简化和专业化,以更好地适应生产环境。RAG模型及其技术栈的共同成长表现在技术进步为基础设施设定了新的标准,技术栈的增强又推动了RAG能力的进一步演化。RAG工具包正在成为企业应用的基础技术栈,但一个完全集成的综合平台仍需要进一步创新和发展。

实践

LlamaIndex实践

本文中所提到的很多RAG的优化方案,都可以在LlamaIndex中找到对应的实现,LlamaIndex官方也出了一份官方的指南,详细介绍了一些模块的最佳实践经验。更多详情可以参考A Cheat Sheet and Some Recipes For Building Advanced RAG。

下图列举了一些RAG技术在llamaindex中对应的代码模块,可以参考llamaindex文档进一步尝试。

业界实践

百川智能的RAG方案

百川智能的RAG方案流程包括以下几个关键步骤:

6.向量检索、稀疏检索、Rerank的结合 :为了提高知识获取效率和准确性,百川智能结合使用了向量检索与稀疏检索,形成了一种混合检索方式,以提高目标文档的召回率。

7.大模型自省技术 :在通用RAG基础上,百川智能创新性地提出了Self-Critique技术,让大模型能够根据Prompt,对搜索回来的内容进行自省和筛选,以确保提供与用户查询最匹配、最优质的答案。

8.模型与搜索的深度融合 :通过这些步骤,百川智能实现了大模型与搜索的紧密结合,为用户提供定制化解决方案,有效降低成本、提升性能,并持续增值企业专有知识库。

百川智能的RAG方案显著地改善了大模型在行业垂直场景中的应用,通过提供一种更低成本、更高效的定制化大模型解决方案,提升了大模型技术的落地潜力,并有望引领大模型产业走向一个全新的阶段。

OpenAI案例

OpenAI展示了一个使用检索增强生成(RAG)技术来优化问题解答系统的案例。起初,系统仅仅通过基于余弦相似度的检索方案达到45%的准确率。为了提高性能,尝试了多种策略,如HyDE检索,它通过生成虚拟答案并用其检索相关段落,以及微调嵌入模型来调整嵌入空间。虽然这些方法提高了准确性,但由于成本和速度的问题,最终并未被采用。通过调整数据分片和嵌入,准确率提升至65%;进一步通过Rerank和分类不同类型的问题,准确率提升至85%。最后,通过prompt工程、引入工具使用和查询扩展等方法,将准确率提高到了98%。在整个过程中,他们并没有进行大模型的微调,并强调了解决问题的关键在于检索系统能够提供正确的上下文信息。

总结

RAG技术通过结合语言模型中的参数化知识和外部知识库中的非参数化数据,显著提升了大型语言模型(LLMs)的能力,特别是在处理复杂查询和生成详细响应方面。RAG技术经历了从初级到高级再到模块化的演进,其中高级RAG通过引入查询重写和块重新排序等复杂架构元素,提升了性能和可解释性。RAG与微调和强化学习等其他AI方法的整合,进一步扩展了其功能。在内容检索方面,采用结构化和非结构化数据源的混合方法正成为趋势。RAG的应用范围正在扩展到多模态数据,如图像、视频和代码,突出了其在AI部署方面的实际意义。

RAG生态系统的增长表现在以RAG为中心的AI应用的增加和支持工具的发展。随着RAG应用领域的扩张,提炼评估方法以跟上其进化变得迫切必要,确保性能评估的准确性和代表性对于充分捕捉RAG在AI研究和开发中的贡献至关重要。

原文链接:​ ​​ ​

本网站的文章部分内容可能来源于网络和网友发布,仅供大家学习与参考,如有侵权,请联系站长进行删除处理,不代表本网站立场,转载者并注明出处:https://www.jmbhsh.com/shumazixun/33293.html

联系我们

QQ号:***

微信号:***

工作日:9:30-18:30,节假日休息