数码资讯
-
智能体协作进化论 从心智理论到逆向注意力
让智能体在不断变化的环境中动态适应、并有效合作是一个巨大的挑战,特别是当智能体需要与陌生的智能体互动时,传统训练方法往往表现不佳,这种情况下,引入逆向注意力智能体,InverseAttentionAgents,成为了一种创新且有效的解决方案,逆向注意力智能体的核心在于借鉴,心智理论,Theoryof...
-
仅需1分钟 文本生成高质量3D模型
全球社交、科技巨头Meta发布了全新文生3D模型——Meta3D,Gen,用户通过Meta3D,Gen仅需1分钟就能生成人物、动物、道具、服饰、工业设计等不同类型的高质量3D模型,Meta3D,Gen不仅生成的内容是高分辨率的纹理和材质贴图,还支持物理渲染光影效果非常好,适用于游戏开发、电影制作、虚...
-
OpenAI 大模型史 AGI 2027 OpenAI联合创始人John RLHF Schulman ...
的离职,OpenAI首席架构师和著名强化学习,ReinforcementLearning,或RL,专家JohnSchulman博士成为OpenAI现存最主要具有技术背景的创始人,最近,Schulman博士接受了著名的科技播客主持人DwarkeshPatel的专访,他解密了OpenAI大模型发展史,介...
-
你的LoRA需要更新了!科大讯飞等提出MiLoRA 新颖且高效的LoRA变体
论文链接,https,arxiv.org,pdf,2410.18035低秩适应,LoRA,及其专家混合,MOE,变体是非常有效的参数高效微调,PEFT,方法,然而,由于在Transformer层中添加了LoRA模块和MOErouters,这些方法在多租户环境中引入了显著的延迟,为了解决这个问题,本文...
-
而是实时企业数据管道!这家公司做到了 RAG真正的难点不是向量数据库
编辑,言征出品,技术栈,微信号,blog51cto,企业部署GenAI需要RAG,而RAG需要向量数据库,向量数据库已经成为企业部署人工智能的核心要素,但这还远远不够,企业级别的RAG要复杂得多,1.向量数据库并非真正的难点克里斯·拉蒂默,ChrisLatimer,是初创公司Vectorize的首席...
-
LangFriend 一款能记住你的日记应用
本文经翻译并二次整理自LangFriend,aJournalwithLong,TermMemory一文,讲述了LangChain在模型记忆功能方面进行的一次深入的应用实战,并推出了具备记忆能力的日记应用,LangFriend,我们深信,记忆功能将是大型语言模型,LLM,系统中最具潜力的一部分,生成性...
-
NVIDIA ViT篇外 Llama
大家也许会很好奇为什么在ViT章节插入了NVIDIALlama,3.1,Minitron4B,ViT因为应用场景的特殊性所以都寄希望于高效率的模型,因此各种针对大参数模型的提炼和优化技术层出不穷,而NVIDIALlama,3.1,Minitron则复现了这些系列的教科书实验,对于一些基本的术语,可以...
-
引入数学主题树基准来全面评估LLMs LLMs并非智能思考者
摘要,大型语言模型,LLMs,在数学推理方面展示了令人印象深刻的能力,然而,尽管取得了这些成就,当前的评估主要限于特定的数学主题,尚不清楚LLMs是否真正参与了推理,为了解决这些问题,我们提出了数学主题树,MaTT,基准,一个具有挑战性和结构化的基准,涵盖了广泛的数学科目,提供了1958个问题,每个...
-
期刊 自然 上海交通大学与上海人工智能研究所联合推出医学多语言模型
随着大型语言模型,LLMs,的快速发展,医学领域的应用也取得了显著进展,但是大多数现有的医学语言模型主要集中在英语语言环境中,限制了其在非英语国家和地区的应用潜力,为了填补这一空白,来自上海交大和上海人工智能实验室的研究团队研发了一个开源的、多语言的医学语言模型,旨在为全球多语言用户提供高质量的医学...
-
AI新动能 数字人三大特征八大场景
随着元宇宙概念的火爆也一同带动了数字人市场的快速升温,据计算全球平均每天都会诞生一个数字人,数字人正成为一股潮流,涌入人们的日常生活——会,捉妖,的虚拟美妆达人柳夜熙,抖音出道三天点赞即超百万,一夜之间成为国内虚拟偶像界的,顶流,;在江苏卫视跨年演唱会上,昔日歌后邓丽君,重返,舞台,与歌手周深同台对...
-
一文彻底搞懂GPT
GPT,3是一个具有1750亿个参数的自回归语言模型,比任何以前的非稀疏语言模型多10倍,对于所有任务,GPT,3均无需任何梯度更新或微调即可应用,任务和少样本演示完全通过与模型的文本交互来指定,可以生成新闻文章样本,而人类评估者很难将这些样本与人类撰写的文章区分开来,接下来分为四部分,摘要、引言、...
-
Transformer动画讲解
一、GPT的核心是TransformerGPT,GenerativePre,trainedTransformer,是一种基于单向Transformer解码器的预训练语言模型,它通过在大规模语料库上的无监督学习来捕捉语言的统计规律,从而具备强大的文本生成能力,在GPT,GenerativePre,tr...
-
Thought TOT of Tree
今天分享一篇普林斯顿大学的一篇文章,TreeofThoughts,DeliberateProblemSolvingwithLargeLanguageModels[1],思维之树,用大型语言模型解决复杂问题,这篇工作还是非常有借鉴意义的,OpenAI的AndrejKarpathy,前TeslaAI高级...
-
利用LLM本身训练SoTA Microsoft embedding模型
大家好,我是HxShine今天分享一篇Microsoft公司的一篇文章,Title,ImprovingTextEmbeddingswithLargeLanguageModels,使用大型语言模型改善文本嵌入,这篇文章探索了直接利用LLM来做embedding模型,其只需要利用合成数据和少于1000次...
-
利用LLM本身训练SoTA embedding模型
大家好,我是HxShine今天分享一篇Microsoft公司的一篇文章,Title,ImprovingTextEmbeddingswithLargeLanguageModels,使用大型语言模型改善文本嵌入,这篇文章探索了直接利用LLM来做embedding模型,其只需要利用合成数据和少于1000次...