包含"人工智能"标签的文章

  • 基于开源AI数据框架LlamaIndex构建上下文增强型LLA应用

      译者,朱先忠审校,重楼引言,将你的企业数据转化为可用于实际生产环境的LLM应用程序,,​​LlamaIndex主页​​​用60号字体这样高亮显示,其副标题是,LlamaIndex是构建LLM应用程序的领先数据框架,我不太确定它是否是业内领先的数据框架,但我认为它是一个与​​LangChain​​​和...

    2024-11-15 810
  • Amazon 为消除幻觉 连接器! Bedrock开大招! RAG 推出上下文基础和

      本周三,亚马逊网络服务,AWS,宣布更新其生成式AI开发服务AmazonBedrock,增加了新的上下文基础功能、检索增强生成,RAG,的连接器以及其他大型语言模型,LLM,据亚马逊生成式人工智能副总裁瓦西·菲洛明,VasiPhilomin,称,这些更新有望简化企业基于生成式人工智能的应用程序的开发...

    2024-11-15 491
  • Transformers学习上下文强化学习的时间差分方法

      上下文学习指的是模型在推断时学习能力,而不需要调整其参数,模型,例如transformers,的输入包括上下文,即实例,标签对,和查询实例,即提示,然后,模型能够根据上下文在推断期间为查询实例输出一个标签,上下文学习的一个可能解释是,,线性,transformers的前向传播在上下文中实现了对实例,...

    2024-11-15 810
  • RAG系统的四层天梯 大模型RAG系统的成长之路

      第一章,为什么要给大模型喂额外营养,想象一下,你有一个超级智能的AI助手,它几乎无所不知,但当你问它今天的股市行情如何,或者最新的新冠病毒变种有哪些症状,,它却一脸茫然,这就是大语言模型,LLM,的现状,知识广博但不够新鲜,这就是为什么我们需要给LLM喂点额外营养,也就是外部数据,这个过程,专业点说...

    2024-11-15 224
  • 谷歌Infini 直接扩展到无限长

      谷歌又放大招了,发布下一代Transformer模型Infini,Transformer,Infini,Transformer引入了一种有效的方法,可以将基于Transformer的大型语言模型,LLM,扩展到无限长输入,而不增加内存和计算需求,使用该技术,研究者成功将一个1B的模型上下文长度提高到...

    2024-11-15 652
  • 人工智能利维坦 智能体的社会进化 从霍布斯社会契约论视角探索LLM

      随着人工智能在解决复杂问题的深入,我们急需探索LLM智能体在模拟环境中的社会行为,特别是它们如何从自然状态过渡到建立社会契约的联邦状态,核心问题包括LLM智能体是否能够展现出类似人类的社会契约形成过程,不同的环境和智能体参数如何影响这一过程,以及这些观察结果对于理解人类社会动态有何启示,6月21日发...

    2024-11-15 813
  • 开源 语言模型系列 AMD 完全开源的 AMD OLMo 1B

      01、概述在人工智能和机器学习领域,我们正经历着一场技术革命,随着技术的飞速发展,对于强大、灵活且易于获取的解决方案的需求也在不断增长,开发者、研究人员和技术爱好者在利用尖端技术时,常常受限于封闭生态系统的束缚,许多现有的语言模型,包括一些最受欢迎的模型,往往伴随着专有限制和许可限制,或者托管在限制...

    2024-11-15 239
  • 用短输入模拟长样本 北大联合MSRA提出PoSE 高效拓展LLM上下文窗口

      论文题目,PoSE,EfficientContextWindowExtensionofLLMsviaPositionalSkip,wiseTraining论文链接,https,arxiv.org,abs,2309.10代码链接,https,github.com,dwzhu,pku,PoSE一、研究简...

    2024-11-15 976
  • Next

      作者,FrankWittkampf编译,岳扬AIAgents之间往往存在很大差异,配图源自MidJ01内容简介IntroductionAIAgents的行为主要由两点决定,1,它所运行的基础模型,以及,2,输入给该模型的上下文信息,上下文信息输入的方式直接影响着Agents任务执行效果,甚至可以说,...

    2024-11-15 875
  • 准确评估大模型长上下文能力 港中文提出CLongEval中文基准测试集

      论文题目,ClongEval,AChineseBenchmarkforEvaluatingLong,ContextLargeLanguageModels论文地址,​​https,arxiv.org,abs,2403.03514​​代码地址,​​https,github.com,zexuanqiu,C...

    2024-11-15 704
  • Agent还能这么玩 百万上下文RAG

      ​Qwen,Agent的设计思路虽然与LangChain相似,但其发布几个的Agent示例却很有意思,今天本文将深入探讨如何使用Qwen,Agent将上下文记忆扩展到百万量级,让Agent的智能得到更广泛的应用,暴力关键字检索优于向量方案在处理大规模文本数据时,一个关键的挑战是如何快速准确地定位到最...

    2024-11-15 777
  • 高效RAG上下文压缩方法COCOM 提升5.69倍

      GPT,4、Llama等开闭大模型通过预训练的方式将海量数据积累成一个庞大的知识库,再通过文本问答的形式为用户生成各种内容,但这种方法仅局限于训练数据集,为了扩大输出范围允许模型通过检索额外的数据来丰富生成内容,RAG,知识检索增强,成为了必备功能之一,RAG也有一个明显的缺点,就是随着上下文信息量...

    2024-11-15 584
  • 轻松扩展8倍 LLM上下文窗口突破200万!无需架构变化 复杂微调

      大型语言模型,LLM,往往会追求更长的,上下文窗口,,但由于微调成本高、长文本稀缺以及新token位置引入的灾难值,catastrophicvalues,等问题,目前模型的上下文窗口大多不超过128k个token最近,MicrosoftResearch的研究人员提出了一个新模型LongRoPE,首次...

    2024-11-15 797
  • 我全都要! RAG 还是 长上下文 Google

      嘿,大家好!这里是一个专注于AI智能体的频道!最近,深度学习和人工智能领域的大牛们在arXiv上发表了一篇有趣的研究,标题挺长的,检索增强生成或长上下文大型语言模型,全面研究和混合方法,今天分享一篇由GoogleDeepMind和密歇根大学的研究人员发布的一个长上下文和RAG混合的方法,Retrie...

    2024-11-15 223
  • RAG是否仍然必要 在长上下文LLM的时代

      一、结论写在前面论文标题,InDefenseofRAGintheEraofLong,ContextLanguageModels论文链接,​​https,arxiv.org,pdf,2409.01666​​克服早期生成式大型语言模型,LLMs,的有限上下文限制,检索增强生成,RAG,在过去一直是基于上...

    2024-11-15 709

联系我们

QQ号:***

微信号:***

工作日:9:30-18:30,节假日休息