包含"LLM"标签的文章
-
基于开源AI数据框架LlamaIndex构建上下文增强型LLA应用
译者,朱先忠审校,重楼引言,将你的企业数据转化为可用于实际生产环境的LLM应用程序,,LlamaIndex主页用60号字体这样高亮显示,其副标题是,LlamaIndex是构建LLM应用程序的领先数据框架,我不太确定它是否是业内领先的数据框架,但我认为它是一个与LangChain和...
-
人工智能利维坦 智能体的社会进化 从霍布斯社会契约论视角探索LLM
随着人工智能在解决复杂问题的深入,我们急需探索LLM智能体在模拟环境中的社会行为,特别是它们如何从自然状态过渡到建立社会契约的联邦状态,核心问题包括LLM智能体是否能够展现出类似人类的社会契约形成过程,不同的环境和智能体参数如何影响这一过程,以及这些观察结果对于理解人类社会动态有何启示,6月21日发...
-
RAG是否仍然必要 在长上下文LLM的时代
一、结论写在前面论文标题,InDefenseofRAGintheEraofLong,ContextLanguageModels论文链接,https,arxiv.org,pdf,2409.01666克服早期生成式大型语言模型,LLMs,的有限上下文限制,检索增强生成,RAG,在过去一直是基于上...
-
LLM超长上下文查询
在大型语言模型,LLM,的应用中,有几个场景需要以结构化的方式呈现数据,其中信息提取和查询分析是两个典型的例子,我们最近通过更新的文档和一个专门的代码仓库强调了信息提取的重要性,对于查询分析,我们同样更新了相关文档,在这些场景中,数据字段可能包括字符串、布尔值、整数等多种类型,而在这些类型中,处理高...
-
能解释图像和文本数据 300亿参数!苹果推出多模态大模型MM1
在过去的一年里,LLM因其先进的AI能力而备受关注,值得注意的是,苹果,Apple,公司却缺席了,目前,苹果公司正在谈判将谷歌的Gemini人工智能引擎植入iPhone,而苹果一直致力于开发下一代LLM,一种可以解释图像和文本数据的LLM,近日,苹果的计算机科学家和工程师团队开发了一种LLM模型,声...
-
阿里发布多模态大模型WINGS 解决基于LLM的多模态训练灾难遗忘问题 南大&
今天给大家介绍一篇南京大学、阿里巴巴联合发表的多模态模型建模方法WINGS,解决基于LLM的多模态模型在进行跨模态建模时的灾难遗忘问题,论文标题,WINGS,LearningMultimodalLLMswithoutText,onlyForgetting下载地址,https,arxiv.org,...
-
15种先进的检索增强生成 技术 RAG
01、概述在人工智能领域,从原型到生产的旅程充满挑战,虽然构建大型语言模型,LLM,、小型语言模型,SLM,或多模态应用的过程充满了兴奋,但要将这些原型转化为可扩展、可靠且生产就绪的解决方案,需要对其复杂性有深入理解,这个过程不仅仅涉及硬件扩展或算法优化,更是对数据、模型架构和实际应用需求之间关系的...
-
优化文本嵌入 大幅提升RAG检索速度
1简介文本嵌入技术能够将文字信息转换成高维向量表示的数字,提供了一种理解和处理文本数据的新方式,帮助我们更好地理解和处理文本数据,这些向量,也就是数字数组,能够捕捉文本的深层特征,进而支持多种应用,比如理解语义、进行文本分类、聚类、信息检索,甚至优化搜索结果排序等,传统上,嵌入向量的维度是固定的,通...
-
基于LLM的多Agent框架在金融市场数据的应用
架构上图展示了本文的整体架构,结合了传统的统计技术和大型语言模型驱动的多智能体系统,首先利用从简单的规则、无监督学习和深度学习技术等现有手段,对金融表格数据中的异常进行识别,异常识别后,将数据传到LLM多智能体系统中,整个系统包括,数据转换Agent、数据专家Agent、报告整合Agent、管理层讨...
-
LLM落地淘宝电商搜索场景 显著提升长尾query改写效果
LLM是目前学术界研究的热点,同时工业界也在快速探索LLM在业务中的落地,本篇文章给大家介绍来自WWW24的一篇文章,介绍了淘宝电商将LLM用在了搜索场景中的query改写上,精心构建的领域特定数据集对LLM进行finetue,定义三种不同的优化目标并使用PreferenceRankOptimiza...
-
NL2SQL 基于LLM的解决方案是最好的吗
1.NL2SQL现状自然语言转SQL,nl2sql,技术是指自然语言查询转化为SQL查询,降低普通用户和专家用户在访问海量数据集和获取数据分析结果时的门槛,1.1我们目前处于何方,上图展示了过去二十年nl2sql方法的演进历程,从基于规则的方法,到基于深度神经网络的方法,再到可调的预训练语言模型,P...
-
LLM4CS 一种利用LLM提升多轮会话检索的效果的方案
大家好,我是HxShine今天分享一篇人大的文章,大型语言模型知道您的会话上下文搜索意图,LargeLanguageModelsKnowYourContextualSearchIntent,APromptingFrameworkforConversationalSearch,在会话型搜索中,由于会话...
-
阿里 LLM 针对大规模 HPN 训练的万卡集群
一、背景之前的文章中我们具体介绍了万卡GPU集群中的网络拓扑以及在万卡GPU集群中进行大规模LLM训练面对的挑战和解决方案;也进一步介绍了阿里云的集合通信调度框架C4和C4底层的阿里云新一代智算集群网络架构HPN7.0,不过上述HPN7.0的相关介绍都是基于阿里官网或者之前的公开分享,最近阿里正式公...
-
推理的 Cache 优化 等 PagedAttention 计算和 Attention vAttention LLM KV
最近,SGLang引起了广泛关注,出现了许多,SGLang吊打vLLM和TRT,LLM,的言论,不得不说,SGLang确实是一项非常出色的工作,与此同时,vLLM的性能问题和TRT,LLM的易用性问题也广受诟病,但是在实际应用中,我们仍然需要保持理性,比如,已经使用了LMDeploy或TRT,LLM...
-
的最新工作 PyramidInfer KV Cache 种优化 LLM 和 MiniCache 6 等
一、背景在LLM推理中,常常会采用KVCache来缓存之前Token的中间结果,以显著减少重复计算,从而降低自回归生成中的延迟,然而,KVCache的大小与序列长度成正比,在处理长序列时会面临极大的挑战,尤其当前许多模型开始支持几百K甚至几M的序列长度,进一步凸显了KVCache的问题,因此很多研究...