1. 首页 > 头条 > 行业热门

微软 RAG并不是你唯一的解决方案!

将外部数据整合到LLMs中的技术,如检索增强生成(RAG)和微调,得到广泛应用,但在不同专业领域有效部署数据增强LLMs面临着重大挑战:

数据增强LLM应用中不同查询层次的主要技术总结​

微软亚洲研究院(MSRA)提出了一种 RAG任务分类方法 ,根据所需的外部数据类型和任务的主要 焦点 将用户查询分为四个层次

四个层次查询的主要焦点​

同时,也将外部数据整合到LLMs中的形式归为三种: 上下文、小型模型和微调 ,强调了它们各自的优势、局限性以及它们适合解决的问题类型。

将特定领域数据注入到大型语言模型(LLM)的三种方式: a) 根据查询提取部分领域数据作为LLM的上下文输入,b) 用特定领域数据训练一个较小的模型,然后指导后续输入到LLM的外部信息的整合,以及 c) 直接使用外部领域知识对通用的大型语言模型进行微调,使其成为领域专家模型。

定义:

提供事实信息的常见数据集分层

挑战:

解决方案:

三种查询-文档对齐类型

关键点:

定义:

挑战:

解决方案:

关键点:

推理查询的示例

定义:

挑战与解决方案

Prompt优化成本:优化提示(Prompt)的过程耗时且计算量大。

有限的可解释性:LLMs对提示的反应不透明,难以一致理解和验证LLMs对不同提示的反应。

L4:隐式推理查询

定义:

领域内数据:可能包括历史问答记录或人工生成的数据。

预备知识:可能包括全面的公理系统或中间结论,如法律代码或数学证明。

挑战与解决方案

逻辑检索:需要更复杂的检索算法来识别与查询逻辑上相关的文本段。

数据不足:外部数据可能没有明确包含与当前查询相关的指导或答案。

离线学习

STaR和LXS:使用LLM生成推理理由。

GL、LEAP、RICP:通过错误识别和原则概括来改进任务。

上下文学习 (ICL)

OpenICL:探索不同的传统方法对ICL效果的影响。

Auto-CoT:通过聚类示例来构建更好的支持学习过程的示例。

微调

指令调整:使用监督微调来增强LLMs在特定领域的能力。

适配器调整、前缀调整、提示调整:通过优化输入前的可训练向量来提高LLMs的性能。​

最后:数据增强LLM应用中查询层次的总结

本文转载自​ ​PaperAgent​ ​

本网站的文章部分内容可能来源于网络和网友发布,仅供大家学习与参考,如有侵权,请联系站长进行删除处理,不代表本网站立场,转载者并注明出处:https://jmbhsh.com/xingyeremen/33264.html

联系我们

QQ号:***

微信号:***

工作日:9:30-18:30,节假日休息