2405.12209_MathBench: Evaluating the Theory and Application Proficiency of LLMs with a Hierarchical Mathematics Benchmark¶
Abstract¶
本段内容主要介绍了MathBench这一新的数学评估基准,旨在全面评估大语言模型(LLMs)在数学方面的能力。传统数学评测基准如GSM8k过于单一,难以全面反映模型在数学理论理解与实际问题解决方面的能力。为弥补这一不足,作者提出了MathBench,该基准覆盖了从基础算术到大学数学的五个不同阶段,每个阶段都包含理论问题和应用问题,从而能够详细评估模型在不同深度知识下的数学能力。此外,MathBench支持双语评估,有助于更细致地衡量模型的数学理解与应用能力。该项目已开源,可在GitHub访问。
1 Introduction¶
这段文字是论文的引言部分,主要介绍了MathBench这一新型数学能力评估基准的背景、意义、特点和贡献。以下是该章节内容的总结:
背景与意义¶
数学推理与问题解决是人类智能的重要组成部分,也是人工智能(AI)研究的核心领域之一。
大型语言模型(LLMs)如ChatGPT和GPT-4在生成类人文本和解决复杂数学问题方面表现出色。
然而,当前评估LLMs数学能力的基准数据集存在局限性,主要体现在:
评估角度单一;
缺乏系统性的难度分级;
忽视了基础理论的理解;
多语言支持不足;
无法全面衡量模型在不同数学领域和难度层级上的能力。
MathBench 的提出与特点¶
为了解决上述问题,作者提出了 MathBench,这是一个全新的、综合性、多语言的数学评估基准,具有以下特点:
五级难度机制:对应从小学到大学的教育阶段,覆盖了从基础算术到高等数学的内容。
分级知识体系:每个题目都标注了细粒度的三级知识标签,便于对模型能力的深入分析。
双语支持:提供中英文题目,支持更全面的评估。
理论与应用结合:同时涵盖基础理论和实际应用问题,体现模型对数学知识的全面掌握。
MathBench 的目标与贡献¶
构建方法:文中详细介绍了 MathBench 的构建过程,包括知识体系的创建、数据收集及题目筛选标准。
实验与分析:作者在多个模型上进行了实验,分析当前LLMs在数学推理方面的瓶颈。
研究价值:MathBench 为研究人员和开发者提供了一个宝贵的资源,旨在推动LLMs在数学能力上的提升,并深入理解模型在解决复杂数学问题上的限制。
总结¶
该引言部分阐明了当前LLMs在数学能力评估方面存在的问题,并提出了 MathBench 作为一个系统性、分级化、多语言的评估基准,旨在更全面、更准确地衡量LLMs在数学领域的表现。全文后续将详细介绍 MathBench 的构建过程、实验结果及分析。
2 Methodology¶
本章(第2章 方法论)主要介绍了MathBench数据集的设计方法和数据来源,核心内容总结如下:
一、分层知识体系(2.1)¶
知识框架结构:
MathBench构建了一个包含五个阶段的数学知识体系:Arithmetic(基础运算)、Primary(小学)、Middle(中学)、High(高中)、College(大学),每个阶段下又细分为**学科领域(Subject Area)和主题(Topic)**两个层面。
如:Algebra(代数)包含Linear Equations(线性方程)、Quadratic Equations(二次方程)等具体主题。
该体系从基础运算到高等数学,全面覆盖数学知识的深度与广度。
标注机制:
每个题目均标注其所属阶段、学科领域和主题,便于对模型在不同数学领域的表现进行精细化分析。
特别强调Arithmetic阶段的重要性,作为所有数学学习的基石。
二、数据收集与统计(2.2)¶
数据源分类:
理论知识题:用于测试模型对公式、定理及其推论的理解。
应用题:要求模型具备将理论知识应用于实际问题的能力。
题目格式选择:
为提升模型处理效果,绝大多数题目(特别是中等及以上难度的题)统一转换为四选一的多选题。
保证答案唯一性,干扰项设置具有较高混淆性。
数据来源:
包括中国国内考试(如中考、高考)、国际竞赛(如AMC、SAT)以及公开数据集(如MMLU、SciBench)。
共收纳3709道题目,覆盖中英文,分为两个子集:
MathBench-T:2209道理论知识题;
MathBench-A:1500道应用题。
质量控制:
采用半自动筛选机制,结合GPT-4,去除题目错误或与阶段不一致的问题,确保数据质量。
所有题目均经过严格的质量审查流程。
总结¶
第2章详细介绍了MathBench的知识层级体系与数据收集方法,旨在通过分阶段、分学科、分主题的结构化设计,实现对大语言模型在数学理论与应用能力上的精细化评估。数据覆盖范围广,质量高,为后续的模型评估提供了坚实基础。
3 Experiments and Analysis¶
本章节主要介绍了实验配置与结果分析,围绕 MathBench 基准对当前主流大语言模型(LLM)的数学理论与应用能力进行了系统评估。
实验配置¶
实验采用 CircularEval (CE) 和 Perplexity (PPL) 作为对 Chat 模型 和 Base 模型 的主要评估方法。CE 通过多次打乱选项顺序对多选题进行评估,确保评估的公平性。实验统一设置最大输出长度为 2048 tokens,使用贪婪解码策略,并采用不同的设置处理不同类型的题目(如 CoT 策略)。
评估模型涵盖 闭源商业模型 和 开源模型,共计超过 20 款,包括:
闭源模型:如 GPT-3.5、GPT-4、Claude-3-Opus 等;
开源通用模型:如 Llama3、Qwen、ChatGLM3 等;
数学专用模型:如 DeepSeek-Math、InternLM2-Math 等。
主要结果¶
实验结果按 MathBench-A(应用能力) 和 MathBench-T(理论能力) 分类展示:
MathBench-A(应用能力)¶
GPT-4o-2024-05-13 表现最好,尤其在中学、高中和大学级别上具有明显优势。
Qwen1.5-110B-Chat 在开源模型中表现最佳,接近甚至超越一些闭源模型。
DeepSeek-Math-7B-RL 在数学应用任务中表现优异,尽管参数规模较小,但远超同类大模型。
参数规模与模型性能密切相关:随着参数规模增大,模型在解决复杂问题上表现更优,但在高级别数学任务上,模型间差距显著。
MathBench-T(理论能力)¶
GPT-4o 在所有理论阶段表现最优,综合得分最高。
Qwen1.5-110B-Chat 在初级理论任务中表现最佳,但在高阶理论任务中略逊于 GPT-4o。
InternLM2-Chat-7B 在 7B 模型中表现出较强的理论能力。
数学专用模型如 DeepSeek-Math-7B-RL 在理论与应用任务上均表现突出。
总结¶
实验表明,在 MathBench 基准上,模型在理论能力和应用能力上的表现具有较强一致性。参数规模较大的模型在处理复杂数学问题上具有显著优势,而专用数学模型则在特定任务中表现出高效性。GPT-4o 在整体表现上最为均衡和突出,而 Qwen1.5-110B-Chat 和 DeepSeek-Math-7B-RL 在开源模型中表现尤为亮眼。
3.3 Evaluation of Base Models¶
总结:3.3 与 3.4 节主要内容¶
本章节主要围绕 MathBench 基准测试中的**基础模型(Base Models)和数学模型(Mathematical Models)**的评估与分析展开,重点探讨了模型在不同数学阶段(基础算术、小学、中学、高中、大学)中的表现,并深入分析了模型在理论理解与应用能力之间的差距、双语处理能力、以及提升模型数学能力的策略。
3.3 Evaluation of Base Models 主要内容总结:¶
表格对比:展示了多个开源基础模型(如 Llama-2、Mistral、Qwen、InternLM 等)在两个基准(MathBench-A 和 MathBench-T)上的表现。
模型分类:模型被分为不同参数规模组(如 7B、13B、14B、20B、70B 等),并在每组中选出性能最优模型。
性能亮点:
在 7B 参数组 中,
InternLM2-7B表现最佳。在 14B 参数组 中,
Qwen-14B优于同参数模型。在 72B 参数组 中,
Qwen-72B表现突显,是所有基础模型中性能最强的。数学模型(如
Deepseek-Math-7B-Base)在数学任务中的表现优于普通基础模型。
Chat 与 Base 模型差异:部分模型(如
ChatGLM3-6B)的 Base 版本表现优于其 Chat 版本,差异可能源于微调策略不同。
3.4 Detailed Analysis 主要内容总结:¶
Circular Evaluation vs. Accuracy Evaluation(CE vs. ACC):
CE(CircularEval)通过多次测试确保答案一致性,比单次准确率(ACC)更具鲁棒性。
更强大的模型在 CE 和 ACC 之间表现差异较小,说明其稳定性更高。
模型在不同阶段的应用题表现差异:
模型在算术和小学数学阶段表现良好,但在中学及以上阶段(如高中、大学)表现显著下降。
这表明当前模型在解决复杂推理和计算问题时能力不足。
理论理解与应用能力的差距:
在初级阶段,模型的理论和应用能力较高且相关性强。
随着阶段提升,模型在应用能力上的下降更为明显(例如 Qwen-72B-Chat 的理论与应用差距从 Middle 到 College 阶段逐步扩大)。
GPT-4 是各阶段应用能力最强的模型。
不同数学主题的表现差异:
模型在基础主题(如单位换算、四则运算)表现良好,但在抽象理论(如集合论、数学逻辑、多重积分)上表现较差。
表明模型在处理需要深层推理和复杂计算的问题时仍存在困难。
双语处理能力分析:
GPT-4 在中文和英文双语任务中表现最佳,显示其较强的多语言数学理解能力。
多数模型在中英文任务上存在较大性能差异,GPT-4 的差距最小。
提升模型数学能力的初步探索:
实验使用了 Chain of Thought(CoT) 和 知识点注入(Knowledge Infusion) 两种策略对
Qwen-72B-Chat模型进行优化。实验结果显示,结合 CoT 与知识点注入(CoT-Knowledge)的策略效果最佳,显著提升了模型在理论与应用问题上的准确率。
关键结论:¶
模型性能与参数规模相关,但不是唯一决定因素,高质量训练数据和微调策略同样重要。
应用题难度随教育阶段提升而增加,模型在处理复杂推理和抽象数学问题时仍有明显短板。
理论与应用能力之间存在显著差距,尤其在高级阶段更为明显。
多语言数学任务对模型提出了更高要求,目前只有少数模型(如 GPT-4)具备较强的双语处理能力。
CoT 和知识点注入是提升模型数学能力的有效方法,尤其是在处理抽象理论和应用问题时。
后续研究方向建议:¶
探索更高效的微调策略以缩小 Base 模型与 Chat 模型的性能差距。
针对复杂数学任务(如集合论、数学逻辑)设计专门的数据集和训练方法。
提升模型的多语言数学处理能力,特别是在中文与英文任务上平衡性能。
持续研究 CoT 与知识点注入的结合方法,以提升模型的鲁棒性和准确性。
4 Discussion¶
本章“4 Discussion”主要围绕 MathBench 基准测试中的模型性能、模型规模影响、错误分析以及推理路径展开讨论,具体内容总结如下:
4.1 代码代理(Code Agent)在 MathBench 上的表现¶
本节通过使用 外部代码解释器(Code Interpreter) 和 ReAct 协议 来评估大语言模型(LLMs)在解决数学问题上的能力。
应用部分(Application):使用代码代理显著提升了模型在应用题上的表现,尤其是在 算术类问题 上,例如 InternLM2-7B-Chat 的得分从 53.0 提高到 87.3,提升了约 64%。这表明代码代理在提升模型基础数值计算能力方面具有重要作用。
理论部分(Theory):代码代理在理论题上的帮助有限,对 InternLM2-7B-Chat 没有显著提升。这说明理论能力的提升需要模型本身具备对数学概念的深入理解和应用能力,仅靠外部工具难以实现。
复杂问题(如大学水平的应用题):代码代理并未带来显著提升,甚至在某些情况下略降性能,说明模型在处理高度复杂问题时还需要其他优化手段。
4.2 模型规模对数学能力的影响¶
研究发现,同一系列模型中,大多数遵循“规模定律”(Scaling Law),即随着参数规模的增加,模型的数学能力也逐步提升。例如:
Qwen、Mammoth 和 Yi 系列模型随着参数规模增加,MathBench 得分稳步上升。
然而,小参数模型也能表现优秀,如 DeepSeek-Math-7B 在 MathBench 上的表现甚至优于其参数规模大 10 倍的 DeepSeek-72B,以及更大的 Mammoth-70B。这说明模型性能并不仅仅依赖于参数规模,还与训练目标和任务优化密切相关。
4.3 错误分析¶
通过对 80 道理论题和 100 道应用题的抽样分析,研究揭示了模型在 MathBench 上的常见错误类型:
知识不足(78%):78% 的模型错误源于对数学概念的误解,尤其是在理论问题中更为突出。
推理缺陷(33.4%):模型在逻辑推理过程中出现错误,尽管逻辑看似一致,但结论错误。
偏离用户意图(9.6%):部分模型无法理解用户真实意图,导致答案偏离问题核心。
响应长度限制(4.0%):部分模型在复杂任务中因输出长度限制而无法完整表达推理过程。
其他问题:包括缺乏明显推理过程、模型过于固守选项等。
这些错误表明,无论模型规模大小,在数学理解和推理能力上仍存在系统性挑战,需要更深入的训练和优化方法。
4.4 推理路径分析¶
本节分析了不同模型在处理不同难度问题时的推理路径:
简单问题:模型通常可以快速、准确地给出答案,推理路径清晰。
复杂问题(涉及大量符号、知识点和复杂关系):模型在知识导航、符号处理和逻辑整合方面表现出明显差异。
小模型:虽然具备一定逻辑性,但容易因知识不足导致推理错误,特别是在符号理解和关系建模方面。
大模型:凭借更丰富的知识和更细致的理解能力,表现出更强的推理能力和知识整合能力,但仍存在知识管理效率低的问题,容易产生无关推理。
数学专用模型(如 DeepSeek-Math-7B):尽管参数较少,但展现出出色的数学理解力和系统性推理能力。
闭源模型(如 GPT-4):GPT-4 在数学问题上的表现尤为突出,具备强大的问题理解能力、逻辑推理能力和符号处理能力,能有效识别问题歧义,并给出详尽、细致的推理过程。
总结:¶
本章通过 MathBench 基准,系统分析了大语言模型在数学任务中的表现。研究发现:
代码代理 能显著提升模型在应用题上的表现,但对理论题帮助有限。
模型规模与性能之间存在一定的正相关关系,但小模型通过优化训练目标也可以取得良好表现。
模型在数学理解和推理方面仍存在系统性缺陷,主要体现在知识误解、推理错误和意图理解偏差等方面。
GPT-4 等闭源模型在数学任务中展现出卓越的推理能力,但在开源模型中,DeepSeek-Math-7B 等数学专用模型也表现出相当竞争力。
未来的研究需要进一步探索如何通过训练方式优化模型的数学能力,尤其是在理论理解、逻辑推理和复杂问题处理方面。
6 Conclusion¶
第六部分结论总结如下:
MathBench采用结构化的方法,根据学习阶段和知识水平对数学题目进行分类,旨在全面评估大语言模型(LLMs)的数学能力。通过涵盖不同教育阶段的广泛学科和主题,MathBench为研究人员和教育工作者提供了一个独特的资源,有助于推动数学学习与评估领域的发展。
7 Limitations¶
本章总结了MathBench数学评估基准的两个主要局限性:
数据来源问题:为增加题目的多样性,部分题目(约19%)来自开源数据集。然而,这些数据可能存在“数据污染”的风险,即模型可能在训练阶段已接触过这些问题,从而影响评估的客观性。未来计划通过自动化手段生成不同阶段的问题,更准确地测试模型的真实数学能力。
缺乏详细推理路径:由于题目多样性和时间限制,MathBench目前未为每个问题提供详细的推理过程。这限制了题目的进一步利用价值。未来将探索半自动化方法,为每个问题提供自然语言和代码形式的推理路径,以充分发挥MathBench的潜力。
8 Ethical Considerations¶
本节主要讨论了研究中的伦理考量。研究在构建基准时使用了公开可获取的参考资料和闭源模型,以避免对个人或群体造成潜在伤害。所有由大语言模型(LLMs)生成的数据都经过了严格的人工筛选和处理,以保障隐私和保密性。研究中未使用任何可识别个人身份的信息,并在分析前对数据进行了匿名化处理。此外,还使用了 ChatGPT 和 Grammarly 对论文语言进行润色,以提升表达的准确性。
Appendix A MathBench Statistics¶
总结:附录A MathBench统计信息¶
A.1 数据集统计¶
MathBench 包括不同教育阶段(小学、初中、高中、大学)的理论题与应用题,题目分为英文和中文版本。
表格5 展示了各阶段理论题与应用题的数量分布,算术阶段只有应用题300道,其他阶段则包括理论题与应用题。
表格6 给出了各阶段不同学科领域的题目数量统计,例如小学与算术阶段侧重于数字与代数、几何和综合应用,大学阶段则包括高等数学、线性代数和概率统计等。
A.2 数据收集细节¶
小学阶段的题目:基于GSM8k数据集,使用GPT-4进行中译中,并替换实体名以生成适合中文语境的题目。
GSM-X-Plus数据集:通过修改原始题目中的数值参数(乘以变量k,k∈(2,10)),生成新的英文题目并计算答案。
考试题目收集(如AMC、高考、中考等):从互联网获取并由专家处理和标注。小学和中学题目由本科生处理,大学题目由数学或计算机专业的研究生处理。
除了自建数据集,还整合了多个开源数据集,包括CEVAL、MMLU、Arithmetic-HG、Math401和SciBench,所有数据均来自OpenDataLab,采用MIT许可证。
A.3 质量筛选¶
由于题目来源多样,存在一些质量问题,如题目本身有误或难度不合适。
为确保题目质量,采用GPT-4进行循环评估(Circular Evaluation, CE),筛选出GPT-4在四次尝试中错误次数不超过0至2次的题目,再由人工审核以确保整体质量。
Appendix B Detailed Experimental Results¶
总结:Appendix B 详细实验结果¶
本章节提供了LLM在MathBench数学基准上的详细实验结果,分为三个部分:整体表现、准确性评估以及双语表现。
B.1 Overall Results(整体结果)¶
概述:展示了Chat Models和Base Models在不同阶段(如小学、中学、高中、大学)数学题上的平均得分。
模型分类:
Closed-source Models(闭源模型):如GPT-3.5、GPT-4、Claude-3、GLM4等。
Open-source Chat Models(开源聊天模型):如Qwen、Llama-3、InternLM2、Yi等。
Mathematical Models(数学专用模型):如Mammoth、InternLM2-Math、DeepSeek-Math等。
主要发现:
GPT-4o-2024-05-13在Chat模型中表现最佳,平均得分为79.0。
Qwen1.5-110B-Chat在开源模型中表现最好,平均得分71.2。
数学专用模型在整体表现上略逊于通用模型,但DeepSeek-Math-7B-RL在数学相关任务中表现突出,得分60.4。
参数规模影响:随着模型参数规模增加,表现总体提升,如Llama-3-70B-Instruct和Qwen-72B-Chat等大模型表现优异。
B.2 Results with Accuracy(准确性评估)¶
内容:展示了模型在不同阶段任务上的准确率,而非平均得分。
主要发现:
GPT-4o-2024-05-13在Chat模型中表现最优,平均准确率93.3%。
Qwen1.5-110B-Chat在开源模型中表现最好,平均准确率71.2%。
数学专用模型在不同阶段表现差异大,DeepSeek-Math-7B-RL在高中和大学阶段表现良好。
趋势:整体上,大模型在不同阶段的准确性较高,闭源模型普遍优于开源模型。
B.3 Bilingual(双语表现)¶
内容:比较了模型在中文和英文任务上的表现。
主要发现:
英文任务:GPT-4o-2024-05-13在英文数学任务中表现最佳,平均得分75.6。
中文任务:Qwen1.5-110B-Chat在中文任务中表现最佳,平均得分71.5。
双语能力:大多数模型在中文任务上的表现优于英文任务。数学专用模型在英文任务中表现一般。
趋势:模型的双语能力与其训练数据和语言支持相关,大模型在两种语言中均表现较好。
总结¶
模型性能:大模型(如Qwen-110B、Llama-70B)在多个任务中表现优异,尤其是在数学推理方面。
闭源 vs 开源:虽然闭源模型表现更优,但部分大参数规模的开源模型(如Qwen-110B、Llama-70B)已经接近甚至赶超部分闭源模型。
数学专用模型:虽然在数学任务上设计更优,但整体表现仍略逊于通用大模型。
语言差异:模型在中文任务上的表现普遍优于英文任务,表明中文训练数据的丰富性和语言建模能力更强。
这些结果为LLM在数学任务中的理论和应用能力提供了详细的评估依据。
Appendix C Extra Analysis¶
对附录 C 的额外分析内容总结如下:
1. 三角函数问题分析¶
问题描述:给出 \(\sin x^\circ = a\),判断以下哪一个恒成立。
选项分析:
错误模型答案认为选项 A 正确,但实际误解了余角定理。
正确分析指出,根据余角定理,\(\cos(90^\circ - x^\circ) = \sin x^\circ = a\),因此选项 B 是正确答案。
总结:模型在基本三角函数定理上的理解存在错误,导致错误选择。
2. 理想的性质问题分析¶
问题描述:在环 \(R\) 中,给定两个理想 \(U\) 和 \(V\),判断以下哪一组合仍是理想。
错误分析:
错误模型认为选项 I 不一定是理想,II 是理想,III 也不是理想,得出仅 II 正确。
实际上,根据理想性质,I(\(U+V\))是理想,II(\(UV\))是理想,III(\(U \cap V\))也是理想。
总结:模型对理想的性质有误解,未能正确应用理想的基本定义和性质。
3. 抛物线与圆的交点问题分析¶
问题描述:确定哪一个圆与抛物线 \(x^2 = y + 4\) 的交点最多。
错误分析:
模型正确识别了数学公式,但在求解过程中计算错误,误将选项 C(圆 \(x^2 + y^2 = 16\))认为有四个交点。
总结:模型虽然理解了数学原理,但在实际计算中出现错误,导致推理路径不完整。
4. 阶乘末尾零的数量问题分析¶
问题描述:多少个正整数 \(k\) 的阶乘在十进制表示中恰好以 99 个零结尾。
错误分析:
模型没有关注阶乘末尾零的计算方法,而是错误地认为有四个满足条件的整数。
总结:模型忽略了问题的核心(阶乘中 10 的因子个数),推理误入歧途。
5. 概率与统计问题分析¶
问题描述:计算在样本大小为 6 时,第 2 个和第 5 个顺序统计量之间包含中位数的概率。
错误分析:
模型正确识别了问题,但在求解过程中错误地将两个独立概率相乘,忽略了概率之间的依赖关系。
总结:模型在概率独立性假设上有错误,导致最终结果错误。
6. 选项限制问题分析¶
问题描述:判断两个陈述的真假。
错误分析:
模型未提供详细推理过程,直接给出答案 A(False, False),无法判断其错误原因。
总结:模型未能满足“推理过程”要求,直接给出答案限制了分析的深度。
7. 非遵从提示的问题分析¶
问题描述:计算世界系列赛在打满四场的情况下有多少种可能结果。
错误分析:
模型未遵从题目的选项设定,直接计算为 16,但实际答案应为两个(AAANNN 或 NNNAAA)。
总结:模型未正确理解问题设定,导致答案与题目不匹配。
8. 小模型的推理路径分析¶
问题描述:计算打折后含税的售价反推出原价。
错误分析:
模型错误地理解了税率计算方式,导致最终公式错误。
总结:模型的数学逻辑完整,但关键步骤存在错误,显示出小模型在细节理解上的不足。
9. 大模型的推理路径分析¶
问题描述:已知 \(\log_2(x) = 5\),求 \(\log_2(2x)\)。
正确分析:
模型正确应用对数性质,将 \(\log_2(2x) = \log_2(2) + \log_2(x) = 1 + 5 = 6\)。
总结:模型推理路径清晰,逻辑严密,正确应用数学知识。
10. 数学模型的推理路径分析¶
问题描述:已知等差数列前六项与前七项和相等,求前十三项和和第十三项。
正确分析:
模型正确应用等差数列求和公式,通过代数推导得前十三项和为 0,第十三项为 -18。
总结:模型推理过程严谨,数学公式运用准确,最终答案正确。
总体总结:¶
附录 C 提供了多个数学问题的模型回答和分析,揭示了模型在理解数学概念、公式应用、逻辑推理等方面的优势与不足。小模型在逻辑完整性和数学公式推导上表现较好,但在细节理解和应用上存在偏差;大模型和数学模型表现更好,能正确应用公式并完成复杂推导。
C.1 Prompts Demonstration¶
本文档总结如下:
C.1 提示示例(Prompts Demonstration)¶
本节展示了不同语言和题型的提示实例,以用于测试模型在数学问题上的表现。
C.1.1 英文开放式测试(English Open-ended test)¶
提供了多个数学问题及其解答,每个问题要求模型直接给出答案并解释过程。
每个问题均为算术或简单应用题,模型的回答逻辑清晰,直接计算答案。
C.1.2 中文开放式测试(Chinese Open-ended test)¶
与英文版本类似,问题和回答使用中文呈现,结构一致。
模型按照中文提示,对每个问题进行计算并提供答案,逻辑与英文回答相同。
C.1.3 英文单选题带推理(English single choice with reasoning)¶
提供了带选项的数学单选题,模型需逐步推理,并在最后明确指出答案选项。
提示格式为:“Let’s think step by step:”,然后在结尾用“Therefore, the correct answer is option X”提供答案。
C.1.4 中文单选题带推理(Chinese single choice with reasoning)¶
与英文版本结构相同,但使用中文提示。
模型需逐步推理,并在最后用“所以答案为选项X”给出答案。
C.2 错误类型示例(Error Types Demonstration)¶
本节列举了模型在数学任务中可能犯的错误类型,并提供了示例说明。
C.2.1 概念误解(Misunderstandings of concepts)¶
模型未能正确理解题目中的数学概念。
C.2.2 推理错误(Flawed reasoning)¶
模型推理过程出现逻辑错误,导致答案错误。
C.2.3 与问题不一致(Misaligned with the question)¶
回答偏离题目要求,未能正确解决所提问题。
C.2.4 超出最大输出长度(Exceed max out length)¶
模型的回答被截断,未能完整呈现推理过程。
C.2.5 回答受限于选项(Responses constrained to Options)¶
模型在单选题中未能跳出选项限制,导致错误答案。
C.2.6 未遵循提示(Non-adherence to the prompt)¶
模型未按照提示中的格式或要求进行回答。
C.3 推理路径示例(Reasoning Paths Demonstration)¶
本节展示了不同类型模型的推理路径,以比较其在数学任务中的表现。
C.3.1 小型聊天模型(Small-scale chat model)¶
展示了小型模型在完成数学任务时的推理路径。
C.3.2 大型聊天模型(Large-scale chat model)¶
展示了大型模型的推理路径,可能比小型模型更复杂、准确。
C.3.3 数学模型(Math model)¶
展示了专门用于数学任务的模型的推理路径,可能更专注于数学逻辑和精确计算。
总结¶
本章详细展示了模型在不同语言、题型以及模型规模下的表现方式,以及可能出现的错误类型。通过不同模型和任务的对比,作者希望评估模型在数学理论和应用能力上的差异。