包含"Agent"标签的文章
-
聊聊Meta近期的推荐系统大模型
最近,Meta发表了两篇和推荐系统相关的大模型工作,这类工作不是讲NLP等领域的大模型应用到推荐系统,而是直接使用推荐系统的数据训练大模型,一直以来,阻碍CTR预估等模型朝大模型发展的一个阻碍是,这类模型并不存在像NLP、CV领域模型中的scalinglaw,即模型的效果随着模型尺寸增大、训练数据增...
-
学会区分大模型
乱花渐欲迷人眼,学会从根本上认识问题,现在市面上大模型如百花齐放,对很多人来说一堆大模型带来的不是简单方便,而是乱七八糟以及迷茫,因为不知道不同的大模型之间有什么区别,也不知道自己需要什么样的大模型;就拿huggingface来说,上面的模型有几十万,有几个人能弄明白它们都是干什么的,因此,我们首先...
-
强大 LightRAG开源了!轻巧 GraphRAG的进化版
Hi,这里是Aitrainee,欢迎阅读本期新文章,我们以前介绍了HybridRAG、GraphRAG这些,今天我们将介绍一个崭新的RAG项目,现有的RAG系统老是搞不清复杂关系,答案经常被切碎,缺乏上下文,难以真正理解问题,而LightRAG就是来解决这些问题的,它把图结构引入文本索引和检索,采用...
-
Chatbot 更智能的 GraphRAG 构建更可靠 快速理解
作者,RendyDalimunthe编译,岳扬开发一个能够处理真实问题并给出精准回答的聊天机器人,实属不易,尽管大语言模型已取得重大进展,但如何将这些模型与知识库结合起来,提供可靠且上下文信息丰富的答案,仍是一个待解的难题,PhotobyGoogleDeepMind[1]onUnsplash[2]关...
-
高效视觉 让具身智能更快更强!华东师大& 上大提出TinyVLA
论文链接,https,arxiv.org,pdf,2409.12514项目链接,https,tiny,vla.github.io,具身智能近期发展迅速,拥有了大模型大脑的机械臂在动作上更加高效和精确,但现有的一个难点是,模型受到算力和数据的制约,如何使用更少的训练数据,以更快的推理速度,实现媲美Op...
-
架构设计精髓 GraphRAG 传统 微软 RAG 与
在数据洪流不断涌来的今天,如何高效且精准地从浩瀚的信息海洋中提炼出有价值的资讯,成为了自然语言处理领域待解决的关键问题,传统的检索增强生成,RAG,架构,以其独特的检索与生成结合的方式,在一定程度上满足了这一需求,为信息处理带来了便捷,然而,随着应用场景的复杂化,传统RAG在处理全局性、深层次语义信...
-
微软开源GraphRAG 摘要 极大增强大模型问答 推理
7月3日,微软在官网开源了基于图的RAG,检索增强生成,——GraphRAG,为了增强大模型的搜索、问答、摘要、推理等能力,RAG已经成为GPT,4、Qwen,2、文心一言、讯飞星火、Gemini等国内外知名大模型标配功能,传统的RAG系统在处理外部数据源时,只是简单地将文档转换为文本,将其分割为片...
-
浙大等提出MobileVLM 更快 端侧实时运行 V2 更强的端侧视觉语言模型 3B媲美7B!美团
美团、浙大等于近日推出了MobileVLMV2,其中包含参数量1.7B、3B、以及7B的一系列视觉,语言模型,代码与模型以及适配的端侧推理方案都已开源,论文地址,https,arxiv.org,abs,2402.03766模型地址,https,huggingface.co,mtgv代码地址,http...
-
超越传统AI!新型多智能体系统MESA 探索效率大幅提升
探索多智能体强化学习的协同元探索——MESA算法深度解读在多智能体强化学习,MARL,的征途中,如何高效探索以发现最优策略一直是研究者们面临的挑战,特别是在稀疏奖励的环境中,这一问题变得更加棘手,MESA,CooperativeMeta,ExplorationinMulti,AgentLearnin...
-
操控AI代理 像Windos一样 开源大模型AI代理操作系统
去年,AutoGPT的出现让我们见识到了AI代理强大的自动化能力,并开创了一个全新的AI代理赛道,但在子任务调度、资源分配以及AI之间协作还有不少的难题,因此,罗格斯大学的研究人员开源了AIOS,这是一种以大模型为核心的AI代理操作系统,可有效解可决随着AI代理的增加,资源调用率低的难题,同时能促进...
-
大模型检索增强 技术之 RAG
RAG技术的重难点,是怎么更高效和更准确的检索数据,知识库技术作为大模型技术的一个重要应用方向,也是对大模型技术的一个重要补充;特别是在问答系统,如智能客服等领域,知识库有着非同一般的作用,从技术的角度来说,一个智能客服的好坏,除了大模型本身的质量之外,更多的是由知识库决定的,因此,知识库的作用不言...
-
LLM 在线合并优化器以提升奖励并减轻对齐开销
一、结论写在前面在强化学习人类反馈,RLHF,中,有效对齐大型语言模型,LLMs,与以人为中心的价值,同时防止通过预训练和监督微调,SFT,获得的能力退化,是一个核心挑战,插值RLIF和SFT模型参数可以调整人类偏好与基本能力之间的权衡,从而以牺牲对齐奖励为代价减少对齐开销,AlignmentTax...
-
而是实时企业数据管道!这家公司做到了 RAG真正的难点不是向量数据库
编辑,言征出品,技术栈,微信号,blog51cto,企业部署GenAI需要RAG,而RAG需要向量数据库,向量数据库已经成为企业部署人工智能的核心要素,但这还远远不够,企业级别的RAG要复杂得多,1.向量数据库并非真正的难点克里斯·拉蒂默,ChrisLatimer,是初创公司Vectorize的首席...
-
如何通过压缩提示降低GPT
如果使用得当,LLMLingua可以降低使用高级LLM的成本,并使更广泛的用户和应用程序可以使用LLM,像GPT,4和Claude这样的大型语言模型,LLM,可以通过良好的提示工程学习新任务,然而,较长的提示会增加使用这些模型的成本,并且还会减慢它们的运行速度,LLMLingua是微软公司开发的一项...
-
深入探索个性化推荐新境界 效率提升131% AI通过语言理解你的喜好
深入探索个性化推荐新境界——,BayesianOptimizationwithLLM,BasedAcquisitionFunctionsforNaturalLanguagePreferenceElicitation,论文解读在个性化推荐系统的构建中,如何快速准确地识别用户偏好始终是一个挑战,特别是在...