包含"OpenAI"标签的文章
-
超越GPT4的Agent 我用代码实现了!
Agent开发的四种设计模式在吴恩达教授的演讲中,他提到了四种可以显著提升AI智能体性能的设计模式,反思,Reflection,的深度解析在吴恩达教授提出的AI智能体工作流中,反思,Reflection,是一个关键的概念,它指的是智能体在完成任务后,能够自我审视其产出,并主动寻找潜在的改进空间,这种...
-
一个眨眼间的歌曲 Suno 彻底革新了人工智能音乐创作 v3
想象一下,在几秒钟内就能创作出一首完整、专业听起来的歌曲,不需要多年磨练音乐技艺,也不需要掌握复杂的音乐制作软件——只需要用几个词描述你的想法,这就是SunoAI提供的东西,这是一款开创性的平台,利用人工智能的力量来民主化音乐创作,特别是它的最新音乐生成器版本,Sunov3!释放创造力,SunoAI...
-
实测腾讯开源的Hunyuan
今天突然发现腾讯开源混元大模型,十分震惊,腾讯也来挤开源赛道了,只能说大模型开源越来越繁华了,这次开源的主要是MoE模型,有Base模型和Instruct模型,总参数量389B,激活参数52B,支持最大上下文256K,Github,https,github.com,Tencent,Tencent,H...
-
在教育的5个实际应用案例 麻省理工分享ChatGPT
麻省理工学院,MIT,官网消息,多位高级讲师、教职员工、学生在MIT举办的,2024年学习节,上,分享了生成式AI在教学、学习领域中的实际案例和对教育的重要性,OpenAI的ChatGPT成为本次活动中的分享重点并一致认为,ChatGPT等生成式AI是可以作为辅助工具提升教学和学习效率的,而不是一味...
-
在12个视频理解任务中 Mamba先打败了Transformer
探索视频理解的新境界,Mamba模型引领计算机视觉研究新潮流!传统架构的局限已被打破,状态空间模型Mamba以其在长序列处理上的独特优势,为视频理解领域带来了革命性的变革,来自南京大学、上海人工智能实验室、复旦大学、浙江大学的研究团队发布了一项开创性工作,他们全面审视了Mamba在视频建模中的多重角...
-
开源闭源争论不休 浅谈大模型开源和闭源
写在前面前一阵子的开源和闭源之争炒的比较火热,之前一直想写点什么,由于太懒就没写,但是最近开源模型真的太火爆了,前有Grok,1、Mistral,8x22、Llama3,后有Yi,1.5、Deepseek,V2、Qwen1.5,110B,开源模型现在真的卷到飞起,今天简单聊聊下面的几点内容,欢迎大家...
-
给所有安卓手机打了个样 谷歌Phone的AI全家桶上线了
Google的Pixel9系列正式发布,亮点依然在AI功能!为了让自家的手机能跑起来AI功能,Pixel在硬件方面进行了升级,Google为所有新手机增加了RAM,以满足对设备内存需求高的AI应用,Pixel9配备了12GBRAM,其余型号,Pixel9Pro、Pixel9ProXL、Pixel9...
-
11B和90B多模态模型 Llama3.2开源 Meta发布1B和3B端侧模型
早上起来发现,MetaAI又开源模型,文本模型开源了端侧小模型1B和3B模型,也是首次开源了多模态大模型11B和90B两个版本;同时还开源了一个LlamaStack项目,Blog,https,ai.meta.com,blog,llama,3,2,connect,2024,vision,edge,mo...
-
Llama3.1系列模型正式开源 最大405B 闭源模型的统治时代将迎来结束
Meta开源了Llama3.1系列模型,最大参数规模为405B,开源也是好起来了,榜单指标直逼GPT4,o,开源追上闭源模型不再是梦!Llama系列模型确实是开源界的头部,真金白银砸出来的就是不一样,不过现在大家也都知道,榜单效果和真实使用效果也不是完全正比的,后面看看对lmsys战榜单,还有大家的...
-
将端侧大模型进行到底
面壁一直都在做端侧大模型,之前有文本系列MiniCPM,2B模型,还有多模态系列的MiniCPM,V系列模型,今天又开源了MiniCPM3,4B模型,真是端侧一路走到低,这次MiniCPM3,4B也是在效果上有了巨大的提升,超过Phi,3.5,mini,Instruct模型,肩比Llama3.1,8...
-
VS 大模型 小模型
首先,我们思考一个问题,为什么qwen2基本上是当下最受欢迎的开源模型,说实话,相比于deepseek、llama、minicpm这些诚意满满的技术报告,qwen2的技术报告稍显一些,小家子气,,并没有提及到关键的技术细节,然而,qwen2提供给开源社区的,全家桶,套餐,又是多长的技术报告也比不上的...
-
浅谈
今天给大家带来知乎好友@ybq一篇关于如何进行领域模型训练的文章,主要内容是对post,pretrain阶段进行分析,后续的Alignment阶段就先不提了,注意好老生常谈的,数据质量,和,数据多样性,即可,原文,https,zhuanlan.zhihu.com,p,711537210Qwen2,h...
-
但等来了Qwen2 没有等来Qwen2.5
Qwen2又出新作Math大模型,你值得拥有,我没有等来Qwen2.5,但等来了Qwen2,Math,在数学推理能力上大幅度提高,先来一张图阵阵场子,72B模型超过GPT4,o、Claude,3.5,Sonnet和Gemini,1.5,Pro,Blog,https,qwenlm.github.io,...
-
探讨
以chatgpt为起始节点的大模型技术经过了两年左右的发展,大致沉淀了一些较为确定的研究领域,首先是基座大模型的研究,主要是国内外大厂集中大量财力、人力、算力进行大模型军备竞赛,企图将大模型的基础能力,包括推理能力,上限逐步提升到更高的层次,当然也有一些研究机构致力于改进transformer的架构...
-
LLM实践系列
经过了数据收集、筛选、去重,马上就可以开始训练实验了,但是在实验之前,我们还需要先获取一个语言模型的基石,分词器,Tokenizer,Tokenizer的作用是对一条文本数据进行切分、词表映射,得到这条文本的token序列,用开源Tokenizer还是自己训练Tokenizer可以自己训练,也可以从...