科技
-
利用LLM本身训练SoTA embedding模型
大家好,我是HxShine今天分享一篇Microsoft公司的一篇文章,Title,ImprovingTextEmbeddingswithLargeLanguageModels,使用大型语言模型改善文本嵌入,这篇文章探索了直接利用LLM来做embedding模型,其只需要利用合成数据和少于1000次...
-
LLama2详细解读
一、概述Llama2,OpenFoundationandFine,TunedChatModels论文地址,Llama2,OpenFoundationandFine,TunedChatModels代码,https,github.com,facebookresearch,llama官网,ht...
-
个性化在CTR预估中的经典方法和效果对比 一文总结特征增强&
在CTR预估中,主流都采用特征embedding,MLP的方式,其中特征非常关键,然而对于相同的特征,在不同的样本中,表征是相同的,这种方式输入到下游模型,会限制模型的表达能力,为了解决这个问题,CTR预估领域提出了一系列相关工作,被称为特征增强模块,特征增强模块根据不同的样本,对embedding...
-
一文汇总 长周期时序预测有哪些优化点
长周期时序预测核心问题长周期时间序列预测,指的是预测窗口较长一类时间序列预测问题,一般来说,预测长度在50个点以上,就可以认为是长周期时间序列预测问题,同时,预测长度的增加,会使得模型需要引入更长的历史序列,才能实现更好的预测,相比短周期时序预测,长周期时序预测主要面临的挑战有以下几个方面,长周期历...
-
深入探索GPT在情感驱动决策中的表现 从合作游戏中洞察AI决策 GPT的情感逻辑
情感在人类决策中扮演着核心角色,它影响他们的选择、行为乃至生活的方方面面,当这一复杂的人类特质与LLMs相遇时,他们如何确保这些模型能够准确地反映出情感的影响,这不仅是技术上的挑战,更是对模型设计哲学的深刻考量,6月6日发表于学术平台arXiv热门论文,THEGOOD,THEBAD,ANDTHEHU...
-
KVSharer 共享 KV Cache 基于不相似性实现跨层
一、背景本文中我们介绍一种最新的KVCache共享论文KVSharer,与之前常见的层内共享不同,KVSharer主要关注跨层共享,并且是整个层的共享,对应的论文,[2410.18517]KVSharer,EfficientInferenceviaLayer,WiseDissimilarKVCach...
-
Mixture
嘿,大家好!这里是一个专注于AI智能体的频道!首先,让我们来聊聊LLM,这些模型通过在海量数据集上预训练,已经展现出了惊人的能力,无论是理解还是生成自然语言,它们都能做得很好,但问题来了,这些模型的规模和训练成本都很高,这让它们在实际应用中有点不切实际,这时候,MoA登场了!MoA通过利用多个LLM...
-
一幅艺术画作让大模型诞生新生物材料! 活久见 贝多芬的第九交响曲竟然跟材料结构有相似性
出品,技术栈,微信号,blog51cto,太酷了,12日消息,麻省理工大学研究团队发表了一篇新的研究结果,研究发现,通过大模型的加持,科学和艺术竟然存在某种隐藏联系,进而可以生成新的生物材料,基于图形的人工智能模型,中,建议创建一种新的基于菌丝体的生物材料,右,,其灵感来自于瓦西里·康定斯基的画作,...
-
FineTuneBench 商业精细调整API能够如何融入LLMs中的新知识
研究背景这篇文章研究了商业微调API在将新知识注入大型语言模型,LLMs,和更新现有知识方面的效果,尽管OpenAI和Google等提供商提供的商业LLMs微调API具有灵活的应用适应性,但其有效性尚不清楚,该问题的研究难点包括,微调方法的不透明性、缺乏统一的基准评估、用户对超参数优化的限制以及模型...
-
一款优秀的文档解析神器 提升RAG性能必备 TextIn
前言在私有领域知识问答和企业知识管理领域,结合检索增强型生成模型,Retrieval,AugmentedGeneration,RAG,大模型,LargeLanguageModel,LLM,已成为一种趋势,然而,在RAG系统的文档预处理阶段和检索阶段,经常碰到三个主要问题,本文将先探讨下文档解析的准确...
-
的 Sora OpenAI 技术报告详解
Sora详细的技术报告发布了,相关从业者可能都需要看看,里面有OpenAI的训练思路以及Sora详细的技术特性,我从里面找了一些要点,详细的可以去看完整内容,简单来说Sora的训练量足够大也产生了类似涌现的能力,技术特点三维空间的连贯性,Sora可以生成带有动态相机运动的视频,随着相机移动和旋转,人...
-
框架HiQA MDQA 大幅降低区分度低的复杂多文档RAG的幻觉问题 先进的多文档问答
背景检索增强生成,RAG,迅速推进了语言模型领域,特别是在问答,QA,系统,通过在响应生成阶段集成外部文档,RAG显著提高了语言模型的准确性和可靠性,这种方法提高了响应的质量,并降低了幻觉的频率,其中模型生成了错误或误导性的信息,然而,这些方法表现出有限的检索精度时,面对众多的难以区分的文件,在其实...
-
NeurIPS24 针对时序预测中时间戳特征的研究
这篇文章给大家介绍一下北邮在NeurIPS2024中发表的一篇时间序列预测工作,重点研究了如果有效利用时间戳特征提升时序预测效果,相关方法可以嵌入到现有的各类SOTA时序预测模型中,论文标题,RethinkingthePowerofTimestampsforRobustTimeSeriesForec...
-
DMS 如何破解电商7大挑战 AnalyticDB助力企业智能决策
导语本文为数据库,拥抱Data,AI,系列连载第1篇,该系列是阿里云瑶池数据库面向各行业Data,AI应用场景,基于真实客户案例&,最佳实践,展示Data,AI行业解决方案的连载文章,本篇内容针对电商行业痛点,将深入探讨如何利用数据与AI技术以及数据分析方法论,为电商行业注入新的活力与...
-
15种典型RAG框架 卡内基梅隆大学最新RAG综述
1.引言1.1检索增强生成,RAG,概览RAG,Retrieval,AugmentedGeneration,融合了两大核心组件,i,检索模块,负责从外部知识库中检索相关文档或信息,利用密集向量表示从大型数据集,如维基百科或私有数据库中识别相关文档,ii,生成模块,负责处理这些信息,产出类似人类语言的...