1. 背景
大语言模型在工业界应用的一个主要障碍就是大语言模型(LLMs)不遵循标准化输出格式。这种不一致性,使得输出解析变得更为复杂,也削弱了这些模型的可靠性。
所以,大家普遍会采用结构化输出的方式来规避这一问题,也就是使用格式化限制,比如以标准化格式进行输出,比如:Json、XML等。
这些限制可以通过多种方式来实现,比如指示模型遵循带有格式限制指令的指定格式,或者使用像JSON模式这样的标准解决方案。这些方案让LLMs能够更加顺利的融入到实际AI应用中去。
那么,这种格式限制指令,是否会影响LLMs生成内容的质量?
比如下图,GPT-3.5-turbo 在这个 GSM8K数学问题上用标准自然语言输出时,可以给出正确答案,但是一旦添加了格式限制,GPT-3.5-turbo就输出了错误答案。
1.1 对比的格式限制方法
为了系统性研究这个问题,作者针对三种格式限制方法进行对比研究:
1.2 测试的数据集
作者对比了两大类任务,分别是:推理任务和分类任务。
1.2.1 推理任务
1.2.2 分类任务
1.3 测试的模型
对 gpt-3.5-turbo-0125 、claude-3-haiku-20240307 、gemini-1.5-flash 进行了比较。
对于开源模型,使用 LLaMA-3-8B-Instruct 和 Gemma-2-9B-Instruct ,并借助 Text-Generation-Server 进行推理,因其支持 JSON 模式。
1.4 评估指标
对于基于分类的任务(体育理解、DDXPlus、自然指令任务 280 和 MultiFin),将准确率作为主要指标。
对于Last Letter Concatenation和 GSM8K,使用精确匹配指标,即最终答案必须与实际答案完全字符串匹配。
2. 格式限制对最终结果的影响
通过对比三种逐步放宽的提示方式——JSON 模式、FRI 以及 NL 到格式的转换,来探究格式限制对大型语言模型(LLM)性能的影响。
2.1 推理任务
我们在具有精确匹配分数的数据集上对这些方式进行评估,如上图中呈现的 GSM8K 和Last Letter Concatenation。
在Last Letter Concatenation任务中,JSON 模式的表现明显逊于 FRI(JSON)。经检查,发现 100%的 GPT 3.5 Turbo JSON 模式响应将“答案”键置于“原因”键之前,导致了零样本直接回答,而非零样本思维链推理。
将 NL 到格式与不受限制的自然语言响应相比较,发现大多数模型的性能近乎相同,因为两者均从相同的初始自然语言响应得出答案。然而,NL 到格式偶尔会引入生成错误,致使 LLaMA 3 8B Instruct 的性能略低,而其他模型在两种设定下保持了一致的分数。
格式限制的程度和实施方式能够显著影响大型语言模型的性能,尤其在推理任务中。
结构化输出中的键的顺序以及推理与格式遵循的解耦,成为在提供结构化响应的同时保持大型语言模型能力的重要因素。
2.2 分类任务
在评估分类数据集时,观察到了与推理任务不同的趋势,如上图所示。值得注意的是,在 DDXPlus 数据集中,启用 JSON 模式时,Gemini 1.5 Flash 的性能显著提升。在其他分类数据集中,JSON 模式具有竞争力,在某些情况下,超越了其他三种方法。
JSON 模式通过限制可能的答案从而减少答案选择中的错误,提高了分类任务的性能。
相反,自然语言响应可能会引入干扰,导致解析错误。
格式限制对大型语言模型性能的影响取决于任务:严格的格式可能会阻碍推理密集型任务,但能提高需要结构化输出的分类任务的准确性。
2.3 对较宽松格式限制的影响
为进一步探究格式限制所带来的影响,考察了 Soft Restrict 设置的一种变体,即从提示描述中移除模式限制。不再提供特定的模式(比如:“以以下模式用 JSON 格式回复您的答案:{‘reason’:…,‘answer’:…}”),而是单纯指示大型语言模型以目标格式语言进行输出(比如:“以 JSON 格式回复您的答案。”)。
上表展示了在 GSM8K 数据集上移除模式限制后的效果。对于 Claude 3 Haiku、GPT-3.5 Turbo 以及 LLaMA 3 8B Instruct 而言,在不同的提示扰动下,平均得分显著提升,标准差降低。
这些结果表明,虽然结构化输出对下游处理可能有益,但过于严格的模式可能会妨碍大型语言模型的性能,尤其在推理密集型任务中。
这一发现意味着,在希望获得易于解析的结构化输出与保留大型语言模型固有推理能力之间,必须达成平衡。
在处理复杂推理任务时,或许应考虑采用较宽松的格式限制,同时仍保持一定程度的结构,以利于下游处理。
2.4 不同格式的比较
通过对比不仅是 JSON,还有 XML 和 YAML 格式来消融格式语言。由于这三种语言有着不同的语法规则和限制。推断每个模型的表现可能各异,例如 Claude-3-Haiku 将 XML 用于工具使用模式,所以回过头来看,未见到任何一种结构格式能在所有模型中始终表现出色,如下图。对于 Gemini 模型,发现 JSON 更具一致性,但并非总是优于其他格式。
发现在分类任务中,由于答案空间的限制,JSON 模式的表现比文本好很多。
然而,在推理相关任务中,JSON 模式未能遵循先推理后回答的顺序,致使最终性能大幅下降。
2.5 结构格式与解析错误率
最初推测文本与结构化格式之间的性能差距可能源于答案提取过程中的解析错误。
然而,对不同格式和模型的错误率分析表明,解析错误并非主要因素。
实际上,Gemini 1.5 Flash 和 GPT 3.5 Turbo 在这三种格式中均几乎不存在解析错误。在 LLaMA 3 8B 的设置中,JSON 格式下 Last Letter 任务的解析错误率仅为 0.148%,但却存在高达 38.15%的性能差距。
表明格式间的性能差异主要并非源于解析错误,而是格式限制对大型语言模型推理和生成过程的影响。
通过提示 Claude-3-Haiku 为 Claude 3 Haiku 和 LLaMA 3 8B(解析错误百分比最高的两个模型)重新格式化任何存在解析错误的输出,观察到 JSON 和 YAML 格式的得分有所提高,如上图 所示。这种方法展现了在不牺牲特定格式优化优势的情况下提升结构化输出可靠性的潜力。
3. 结论
格式的限制,尤其是约束解码(JSON 模式),会阻碍推理能力,却能提升分类任务的准确率。
较宽松的格式限制通常能提高性能,并减少推理任务中的差异。
解析错误虽非性能差异的主因,但通过纠正提示可得以缓解。
在 LLM 应用中平衡格式遵循、推理能力与成本效率的重要性。
本文转载自,作者:
本网站的文章部分内容可能来源于网络和网友发布,仅供大家学习与参考,如有侵权,请联系站长进行删除处理,不代表本网站立场,转载者并注明出处:https://jmbhsh.com/baihuo725/33152.html