1. 首页 > 头条 > 行业热门

打破数据壁垒 MetaGPT推出全新工作 数据科学家或将被取代 挑战机器学习建模流程

目前,由大型语言模型(LLM)驱动的智能体已经证明了它们在处理复杂任务方面的显著潜力。此外,通过赋予 LLM 代码执行能力来提升其问题解决能力正逐渐成为一种趋势,这一点已经通过 Code-Interpreter[1]、Open Interpreter[2]、TaskWeaver[3]等工作得到了实践验证。

然而,在数据科学领域,面对数据的实时变化、任务间依赖关系复杂、流程优化的专业性,以及执行结果反馈的逻辑一致性识别等挑战,现有 LLM-based 智能体的性能仍有待提升。

MetaGPT 团队联合北京工业大学、复旦大学、华东师范大学、河海大学、加拿大蒙特利尔大学、KAUST、圣母大学、厦门大学、香港中文大学(深圳)、香港大学、耶鲁大学、中国科学院深圳先进技术研究院、中国人民大学等多所顶尖高校和研究机构,共同推出了>

这是一种全新的解决方案,旨在通过增强智能体的任务规划,工具集成以及推理能力,直面数据科学问题的挑战。

Data Interpreter 提出了三个关键技术:

1)动态规划与层次图结构 基于分层的图结构进行任务和代码规划,有效管理任务间的复杂依赖,灵活应对数据科学任务的实时数据变化;

2)工具集成与进化 通过在代码生成过程中自动集成代码片段作为工具,动态嵌入了数据科学领域所需的领域知识;

3)基于验证与经验驱动的推理 自动在反馈中增强逻辑一致性检测,通过基于置信度的验证提升执行代码的逻辑合理性,并借助经验库增强推理能力。在各种数据科学和现实世界任务上的评估表明,与开源基线相比,Data Interpreter 在机器学习任务中表现出色,准确率从 0.86 提升至 0.95。此外,在 MATH 数据集上提高了 26%,在开放式任务中实现了显著的 112%提升。

▲ 在机器学习任务和现实世界的开放式任务中与各种开源框架进行比较,Data Interpreter 在多种任务上取得 sota

2.1 DYNAMIC PLANNING WITH HIERARCHICAL STRUCTURE

在数据科学领域,实时数据的动态变化和任务间复杂的变量依赖关系对大型语言模型(LLM)提出了重大挑战。为了有效应对这些挑战,Data Interpreter 提出了一种创新解决方案: 动态规划与层次图结构(DYNAMIC PLANNING WITH HIERARCHICAL STRUCTURE)

这种方法借鉴了自动化机器学习中的层次规划技术,通过层次结构将复杂的数据科学问题分解为易于管理的小任务,并进一步将这些任务转化为具体的代码执行动作,从而实现细致的规划与执行。

▲分层结构:(a)一个有组织的任务和动作图,展示了高层级机器学习项目的工作流程,包括实现项目目标所需的任务依赖和动作序列。(b)任务的有向无环图(DAG),以机器操作状态预测问题为例。任务图展示了拆解的计划任务,而动作图(也称为执行图)则根据计划的任务图执行各个节点。每个节点的执行代码由 LLM 转换。

这种动态规划方法赋予了>

▲数据解释器的动态计划管理:(a)通过人工编辑进行计划细化。左侧图像显示了在图上经过人工编辑的任务,右侧图像则展示了细化后的计划,包括更新后的任务 3.1'、3.2' 以及新增的任务 3.3。(b)对失败任务的计划进行细化。在任务执行后,如果任务 3.3 失败,细化后的计划将整合已有的成功任务,用更新后的任务 3.3' 替换原任务 3.3,并引入新任务 4.1、4.2、4.3 和 5。

2.2 TOOL UTILIZATION AND GENERATION

在数据科学任务中,任务的多样性与专业性要求基于 LLM 框架具备广泛的工具调用能力。现有的工具调用方式往往局限于 API 的形式,无法满足任务多样性带来的动态需求。Data Interpreter 提出了 工具集成与生成 的方法。

通过工具推荐与组织,能够根据任务描述,进行任务分类,从而有效选择合适的工具集。在执行阶段,Data Interpreter 根据工具参数描述、工具方法描述文档的结构化信息,动态嵌入和调整工具参数,以适应任务的具体需求。

此外,Data Interpreter 还能够通过自我进化,从执行经验中抽象出工具的核心功能,形成通用的代码片段,集成到工具函数库之中。这些工具函数可以在未来的任务中重复使用,从而减少了调试频率,提高了执行效率。

▲数据解释器中的工具使用流程:工具推荐最初根据任务分类来选择工具。然后根据任务需求组合多个工具使用。

2.3 ENHANCING REASONING WITH VERIFICATION AND EXPERIENCE

解决数据科学问题需要严谨的数据与逻辑验证过程,现有的研究在解决这一类问题的过程中,往往依赖于代码执行后的错误检测或异常捕获,这一方式往往会误解代码执行正确即任务完成,无法发现逻辑错误,难以提升任务实现的有效性。

Data Interpreter 通过结合基于置信度的自动验证(Automated Confidece-based Verification)策略,显著提升了其在数据科学问题解决中的推理能力。ACV 策略要求>

在需要更严谨数值反馈的场景中,如使用 LLM 进行数学推理,Data Interpreter 可以增加多次独立验证,并通过多次结果的置信度排序来进一步提升效果。

另一方面,Data Interpreter 利用经验池存储和反思任务执行过程中的经验和教训,能够从过去的成功和失败中学习代码知识,从而在面对新任务时做出更准确的决策。这种结合实时验证和经验学习的方法,显著增强了解释器的推理能力,提升了任务的解决质量。

▲以MATH内的一个任务说明基于置信度自动验证流程:虚线框内是自动验证的过程,虚线框下方根据验证对多个候选答案进行排序

在实验部分,Data Interpreter 在多个数据科学和现实世界任务上进行了评估。与开源基线相比,它在机器学习任务中的表现出色,准确率从 0.86 提升至 0.95。在 MATH 数据集上,性能提升了 26%,在开放式任务中更是实现了 112% 的显著提升。这一成果不仅为数据科学领域带来了新的里程碑,也为 LLM在实际应用中的潜力提供了有力的证明。

MATH benchmark[4]涵盖了从初等代数到微积分等广泛的数学领域。这个基准测试不仅测试了模型对数学知识的掌握程度,还考察了它们在解决复杂数学问题时的推理能力。

为了评估>

如上图所示,以 Accuracy 作为这个任务的评估指标,Data Interpreter 在 4 个类别上均取得了最好的成绩。特别是在 N.Theory 中,带有 Automated Confidence-based Verification(ACV)策略的>

3.2 ML-Benchmark

在机器学习的世界里,精准和效率是衡量一个模型成功与否的关键。为了测试>

这些任务不仅覆盖了葡萄酒识别(WR)、Wisconsin 乳腺癌(BCW)、Titanic 生存预测等经典问题,还包括了房价预测(House Prices)、Santander 客户交易预测(SCTP)、识别与年龄相关的状况(ICR)以及 Santander 价值预测挑战赛(SVPC)等更具挑战性的项目。

在与其他开源框架的较量中,Data Interpreter 展现了其卓越的性能。通过综合任务完成率(CR)、归一化性能得分(NPS)和综合得分(CS)这三个关键指标,Data Interpreter 在七项任务上的平均得分高达 0.95,远超 AutoGen 的 0.86,提升了 10.3%。特别是在 ICR 和 SVPC 这两个数据集上,Data Interpreter 的表现尤为出色,分别比 AutoGen 提高了 24.7% 和 21.2%。

更令人印象深刻的是,Data Interpreter 是唯一一个在 Titanic、House Prices、SCTP 和 ICR 任务上得分均超过 0.9 的框架,这标志着它在机器学习任务中不仅能够完成核心步骤,还能在执行过程中持续优化任务效果。

3.3 Open-ended tasks

在人工智能的世界里,真正的挑战往往来自于那些开放式的任务,它们不仅要求模型具备广泛的知识,还要求它们能够灵活应对现实世界的复杂性。

为了测试>

在这个实验中,Data Interpreter与 AutoGen 和Open Interpreter这两个基准模型进行了对比。每个框架对每个任务进行了三次实验,以平均完成率作为评价标准。

结果显示,Data Interpreter 在开放式任务上的平均完成率为 0.97,与 AutoGen 相比大幅提高了 112%。对于去除图像背景(IBR)任务,所有三个框架都获得了 1.0 的完整分数。

在 OCR 相关任务中,Data Interpreter 的平均完成率为 0.85,比 AutoGen 和 Open Interpreter 分别高出26.8%和70.0%。 在需要多个步骤并利用多模态工具/能力的任务中 ,例如网页模仿(WPI)、图像到 HTML 代码生成(I2C)和文本转图像(T2I),Data Interpreter 是唯一能够执行所有步骤的方法。

而在电子邮件自动回复(ER)任务中,AutoGen 和 Open Interpreter 因为无法登录并获取邮箱状态,导致完成率较低,而>

3.3 Ablation

为了进一步探讨相关方法的有效性,我们进行了消融实验。

3.3.1 核心模块

为评估各模块性能,我们在 ML-Benchmark 上,使用了三种配置进行测试:

1)初始设置: 基础 ReAct 框架,包含简单的任务理解提示词以及支持代码执行流程;

2)增加了 Dynamic plan ,包括分层规划和每一步骤的动态管理,便于实时调整;

3)在 2)的基础上增加了工具集成能力 。如表 3 所示,Dynamic Plan 动态规划显著提高了 0.48 分。它通过准备数据集并实时跟踪数据变化有助于获得更优性能,特别是完成率方面效果显著。此外,工具的使用带来了额外 9.84% 的改进,综合得分达到了 0.94 分。

3.3.2 不同尺寸的LLMs

Data Interpreter 在包括 GPT-4-Turbo、GPT-3.5-Turbo 以及不同尺寸的 LLMs 上进行了实验。

在机器学习的任务中,更大尺寸的 LLM,例如 Qwen-72B-Chat[5]和 Mixtral-8x7B[6]展现出与 GPT-3.5-Turbo 相当的表现,而较小的模型则性能下降较多。

如下图所示,结合 Yi-34B-Chat[7]、Qwen-14B-Chat[5]和 Llama2-13B-Chat[8],甚至 DeepSeek-7B-Chat[9],Data Interpreter可以有效地处理数据加载及分析等任务。然而,这些模型在执行需要较高编码能力的任务时面临仍受到自身能力限制,通常导致流程无法完成。

在 open-ended task 中,Mixtral-8x7B 在 3 项任务上的完成率较高,但在网络搜索和爬虫(WSC)任务中表现不佳,难以准确地将完整结果输出到 CSV 文件。与机器学习任务 ML-Benchmark 类似,规模较小的模型仍由于编码能力受限而遇到执行失败问题

▲在ML-BenchMark 上使用不同尺寸 LLM的评估。(左图:完成率,右图:综合得分)

3.3.3 经验池大小

另外,我们还针对经验池的大小进行了消融实验。按存储任务级别的经验数量,分别设置经验池大小为 0,80 和 200,我们对比>

随着经验池从 1 增加至 200,平均的 debug 次数从 1.48 降低到了 0.32,执行成本从0.80美元降低到了0.24美元,这说明经验的累计对于从自然语言描述任务到代码生成能够有明显的帮助。

目前,大型语言模型(LLM)驱动的智能体已经在处理静态和简单任务上展现了令人瞩目的能力。然而,当面对需要多步骤解决的复杂挑战时,它们的表现往往不尽人意,比如机器学习任务。为了突破这一瓶颈,Data Interpreter 应运而生,它不仅在机器学习任务上取得了显著进步,更在数学推理和开放式任务中达到了行业领先水平。

得益于以下三种技术的融合:动态规划与层次图结构、工具集成与生成、基于置信度验证与经验驱动的推理增强。Data Interpreter 在数学推理任务,机器学习任务和复杂的开放性任务上达到了水平。

相对其他开源基线,Data Interpreter 在 MATH 数学推理任务中准确率提升了,在 ML-Benchmark 机器学习任务中将得分从 0.86 提升至 0.95 ,在开放式任务 Open-ended tasks 中更是实现了的惊人提升。

这些结果不仅标志着基于 LLM 的智能体在数据科学领域的重大提升,也预示着 AI 技术在处理更复杂、更动态的任务时将更加得心应手,为人类社会带来更多智能化的解决方案。

原文链接:​ ​​ ​

本网站的文章部分内容可能来源于网络和网友发布,仅供大家学习与参考,如有侵权,请联系站长进行删除处理,不代表本网站立场,转载者并注明出处:https://jmbhsh.com/xingyeremen/33329.html

联系我们

QQ号:***

微信号:***

工作日:9:30-18:30,节假日休息