包含"开源"标签的文章
-
RAG开源实现Open RAG来了 Contextual Anthropic提出的Contextual
ContextualRAG是一种先进的chunk增强技术,它巧妙地利用LLM,比如claude,为每个文档片段赋予更丰富的上下文,想象一下,如果我们的大脑在回忆某件事时,不仅能想起事件本身,还能自动联想到相关的前因后果,这就是ContextualRAG试图为LLM赋予的能力,这种方法的实现显著提高了...
-
首超GPT4 V2开源发布 DeepSeek Coder
去年11月,最强开源代码模型DeepSeek,Coder亮相,大力推动开源代码模型发展,今年5月,最强开源MoE模型DeepSeek,V2发布,悄然引领模型结构创新潮流,今天,全球首个在代码、数学能力上与GPT,4,Turbo争锋的模型,DeepSeek,Coder,V2,正式上线和开源,全球顶尖的...
-
腾讯放大招 开源专家混合模型 超Meta!史上参数最大
开源大模型领域迎又来一位重磅玩家——腾讯,腾讯一出手就是个超大模型,开源的Hunyuan,Large是目前市面上最大基于Transformer架构的专家混合,MoE,模型,一共有3890亿参数,其中激活参数为520亿,具备处理长达256K上下文能力,根据腾讯公开测试数据显示,Hunyuan,Larg...
-
用于提取的提示词 哪个中文开源大模型在信息抽取上效果最好 附
1.背景信息抽取,InformationExtraction,IE,一般包括命名实体识别,NamedEntityRecognition,NER,、关系抽取,RelationExtraction,RE,和事件抽取,EventExtraction,EE,RE则致力于发现实体间的语义联系,比如某人在某地工...
-
你能学到什么 当你研究过了900个开源大模型项目后
国外一美女程序员,在Github上通过检索gpt,llm,和generativeai等关键字,从数十万检索结果中得到900个500,star大模型开源项目,她将统计结果放到了网站上,并定期更新star数等信息,同时提供了排序,分组,过滤等工具,我们也可以拿她的统计结果来进行分析,https,hu...
-
开源 语言模型系列 AMD 完全开源的 AMD OLMo 1B
01、概述在人工智能和机器学习领域,我们正经历着一场技术革命,随着技术的飞速发展,对于强大、灵活且易于获取的解决方案的需求也在不断增长,开发者、研究人员和技术爱好者在利用尖端技术时,常常受限于封闭生态系统的束缚,许多现有的语言模型,包括一些最受欢迎的模型,往往伴随着专有限制和许可限制,或者托管在限制...
-
超GPT 阿里史上最大规模开源发布
今天凌晨,阿里巴巴官宣了史上最大规模的开源发布,推出了基础模型Qwen2.5、专用于编码Qwen2.5,Coder和数学的Qwen2.5,Math,这三大类模型一共有10多个版本,包括0.5B、1.5B、3B、7B、14B、32B和72B,适用于个人、企业以及移动端、PC等不同人群不同业务场景的模型...
-
谷歌& 旷视等开源Chat 编辑能力无上限!北航&
文章链接,https,arxiv.org,abs,2407.06842项目地址,https,sk,fun.fun,CE3D,代码,https,github.com,Fangkang515,CE3D,tree,main引言过去的3D场景编辑方法往往局限于固定的文本输入模式和有限的编辑能力,用户需要学习...
-
北大开源aiXcoder 7B超越百亿级
当下,大语言模型集成至编程领域、完成代码生成与补全任务成为重要趋势,业界已经出现了一批引人瞩目的代码大模型,比如OpenAI的CodeX、谷歌DeepMind的AlphaCode、HuggingFace的StarCoder,帮助程序员更迅捷、更准确、更高质量地完成编码任务,大幅提升效率,有这样一支研...
-
3 2 性能超Llama 可商用!开源大模型Falcon
阿联酋,阿布扎比技术创新研究所,TII,在官网宣布,开源全新大模型Falcon2,Falcon2有110亿参数共有两个版本,一个是高效、易于部署的基础模型,使用了5.5万亿tokens数据进行预训练,可以生成文本、代码、总结内容等,另外一个是带有视觉转换功能的VLM模型,可以将图片的信息转换成文本数...
-
开源的金融分析工具 Llama3
在自然语言处理,NLP,领域的持续进步中,大型语言模型,LLMs,的领域适应模型变得越来越重要,针对特定任务优化的模型能够提供清晰、简洁和正确的信息,这是商业和最终用户都需要的用例,从医疗诊断到法律咨询,再到金融分析,LLMs正在逐步改变我们与信息互动的方式,然而随着这些模型在特定领域的应用越来越广...
-
16MB 轻量级 一个开源 快速 的自然语言处理工具包! WordLlama
01、概述在人工智能日新月异的今天,自然语言处理,NLP,已成为各行业的核心驱动力,随着对高效AI解决方案的需求不断增加,WordLlama在HuggingFace平台的发布为这一领域注入了新的活力,这一开源、快速且轻量级的自然语言处理工具包,专为CPU优化,适用于模糊去重、相似度计算和排名等多种任...
-
实测腾讯开源的Hunyuan
今天突然发现腾讯开源混元大模型,十分震惊,腾讯也来挤开源赛道了,只能说大模型开源越来越繁华了,这次开源的主要是MoE模型,有Base模型和Instruct模型,总参数量389B,激活参数52B,支持最大上下文256K,Github,https,github.com,Tencent,Tencent,H...
-
开源闭源争论不休 浅谈大模型开源和闭源
写在前面前一阵子的开源和闭源之争炒的比较火热,之前一直想写点什么,由于太懒就没写,但是最近开源模型真的太火爆了,前有Grok,1、Mistral,8x22、Llama3,后有Yi,1.5、Deepseek,V2、Qwen1.5,110B,开源模型现在真的卷到飞起,今天简单聊聊下面的几点内容,欢迎大家...
-
11B和90B多模态模型 Llama3.2开源 Meta发布1B和3B端侧模型
早上起来发现,MetaAI又开源模型,文本模型开源了端侧小模型1B和3B模型,也是首次开源了多模态大模型11B和90B两个版本;同时还开源了一个LlamaStack项目,Blog,https,ai.meta.com,blog,llama,3,2,connect,2024,vision,edge,mo...