中文大模型发展势头正盛。目前,国内发布的中文大模型主要包括千亿级参数的闭源大语言模型文心一言、讯飞星火、ChatGLM,百亿级参数的开源大语言模型Baichuan-13B-Chat、Ziya-LLaMA-13B-v1.1及数十亿级参数的开源大语言模型ChatGLM2-6B、AquilaChat-7B和tigerbot-sft-7b。
为了评估这些中文模型的性能,许多专门针对中文大模型的评测基准和数据集也被相继提出,如国内首个中文大模型理解能力评测数据集MMCU,以及随后陆续发布的SuperCLUE、C-Eval、M3KE、GAOKAO-Bench、Xiezhi(獬豸)、FlagEval(天秤)和CMMLU等。
然而,上述的所有评测大多都是针对中文理解能力的评测,题目类型主要为选择题,由模型直接生成答案,或者提取模型对各个答案选项的输出概率。而从评测大语言模型的生成能力的角度来说,这些评测基准就有了很大的局限性。
针对中文大语言模型飞速发展但国内仍没有能够衡量其生成能力的现状,在率先发布国内首个中文评测数据集MMCU后,甲骨易AI研究院又于近日正式发布了一套能自动测评中文大模型生成能力的基准——CG-Eval(Chinese Generation Evaluation)。
CG-Eval
CG-Eval包含11000道不同类型的题目,涵盖科技工程、人文与社会科学、数学计算、医师资格考试、司法考试、注册会计师考试等科目下的55个子科目,由甲骨易AI研究院人工整理标注。题目分为名词解释、简答题和计算题三种类型。同时,甲骨易AI研究院还设计了一套复合打分方式,使评分过程更加合理、科学。
1 / Question Type
CG-Eval共有三类问题:名词解释、简答题和计算题。
在名词解释中,受测模型会解释各子科目专业术语的含义。在简答题中,模型需要根据问答题的题目和提示词做准确的回答。计算题包括小学(基本计算和应用题两种题型)、初中、高中、大学数学四个子科目的数学题。
2 / Prompt Generation
我们采用了一种动态灵活的提示词生成方式,每一道问题的提示词都是不同的。对非计算题还额外约束了答案长度,让模型尽量按照这个长度来生成回答。
名词解释题的提示词形式及样例如下:
简答题的提示词形式及样例如下:
计算题的提示词稍微复杂一些。
小学数学“基本计算”题目的提示词形式及样例如下:
"应用题"的提示词形式及样例如下:
初中数学、高中数学和大学数学的提示词相同,也最为复杂,形式及样例如下:
3 / Scoring System-Gscore
如何科学合理且公平地对模型生成的答案进行评分是我们关注的一大问题。由于题目类型和生成答案的形式也不同,甲骨易AI研究院设计了一套复合的打分系统,通过两种不同的评分方法使其分别适用于非计算题和计算题。
#非计算题
由于上述指标在单独使用时都存在局限性,甲骨易AI研究院就将其整合到一起,设计了一个复合指标:Gscore(由bleu4、rough2、Chrf以及Semantic Similarity加权求和得出)。
计算公式以及具体权重:
Gscore=0.2*Bleu4+0.25*Rouge2+0.25*Chrf+0.3*Semantic Similarity
其中,Bleu4使用 1-gram、2-gram、3-gram 和 4-gram 评估 BLEU 分数。Rouge2侧重关注2-grams的重叠情况。在计算Semantic Similarity时,首先使用中文预训练模型text2vec-large-chinese将模型回答和参考答案向量化,然后计算其余弦相似度。
因为模型回答和参考答案有时会超出模型的最大处理长度,我们还设计了一个滑动窗口编码模块。在每个窗口内,使用预训练语言模型对文本进行编码,在所有窗口处理完成后,通过汇总编码向量(例如取平均值)或拼接编码向量来获得整个文本的表示向量。
Gscore继承了BLEU、ROUGE、Chrf的优点,同时也通过计算向量化语义相似度的方法缓解了对字符匹配和参考答案的依赖。
#计算题
计算题Gscore的计算复杂一些。小学数学中的基本计算题直接对比最终数值结果,如果本题模型的输出与参考答案完全相等,则得1分;反之得0分。最终的Gscore为所有基本计算题的平均分。
小学数学中的应用题以及初中、高中、大学数学中的计算求解题目,则需要通过答案解析模块抽取出解题过程和最终答案,如果提取出的最终答案与参考答案完全相等,则这道题的Accuracy为1,反之为0。
然后计算提取出的解题过程与参考解题过程的Chrf分数StepChrf,最后通过以下公式来计算Gscore:
Gscore=Accuracy+(1-Accuracy)*0.3* StepChrf
如果最终答案正确,那本题的Gscore就为1。如果最终答案不正确,那么Gscore的分数上限为0.3,具体数值为0.3倍的StepChrf分数。
4 / Experiment
甲骨易AI研究院使用CG-Eval数据集对以下模型进行了zero-shot测试:GPT-4、ChatGLM-Std、讯飞星火Spark Desk、文心一言ERNIE Bot等。
本次受测中文大语言模型
从所有模型在六大类科目的平均分来看,GPT-4取得最高分41.12,比最低分32.28高出8.84分。
本次受测中文大语言模型平均得分
下面将分别展示受测模型在6大主科目,55个子科目下对11000道问题回答的Gscore情况。
本次受测中文大语言模型在科技工程科目下的平均分
本次受测中文大语言模型在人文与社会科学科目下的平均分
本次受测中文大语言模型在医师资格考试科目下的平均分
本次受测中文大语言模型在司法考试科目下的平均分
本次受测中文大语言模型在注册会计师考试科目下的平均分
计算题是CG-Eval中难度最高的一项测试,它的提示词和分数计算规则都最为复杂。模型不仅需要准确理解提示词指令,还需要按照格式提供最终答案。在数学计算大类中,GPT-4取得最高分46.15,比最低分1.93高出44.22分,对所有模型都具有碾压性的优势。
本次受测中文大语言模型在数学计算科目下的平均分
GPT-4在小学数学拿到了71.69的最高分数,这也是所有模型在所有子科目中的最高分。我们仔细分析了所有模型对于小学数学题目的回答,分数高的模型在遵从指令、按格式输出最终答案以及计算准确性上做得较好;而分数低的模型在上述三方面表现都很差,某些模型无法按照格式提供最终答案,还有一些模型重复生成相同的文本。
以一道小学数学应用题为例来看表现最好的模型和表现最差的模型在同样题目上的回答。
可以很明显地看出,GPT-4不仅给出了合理的计算过程,同时还按照要求给出了最终答案。而AquilaChat-7B AquilaChat-7B无法理解提示词,也没按要求给出最终答案,生成的回答不知所云。
但值得注意的是,在小学数学这个子科目上,Ziya-LLaMA-13B-v1.1、Qwen-7B-Chat这两个参数量较小的模型甚至超越了千亿参数级的ERNIE Bot、ChatGLM-Std和Spark Desk。在整个数学计算大类上,Ziya-LLaMA-13B-v1.1和Qwen-7B-Chat的表现也远远超过同级别模型。(各个模型在初中数学、高中数学、大学数学上面的表现详见评测网站http://cgeval.besteasy.com/)
5 / Conclusion
大模型的发展日新月异,然而在英文和中文领域依然没有专门衡量模型文本生成能力的指标,为了弥补这一缺憾,也为了促进中文大模型的蓬勃发展,甲骨易AI研究院正是基于以上情况提出的CG-Eval,不仅能够衡量模型对多领域各类问题回答的准确性和相关性,还能评估模型解决复杂数学计算问题的能力,是一项综合而全面的中文生成能力评估。更重要的是,CG-Eval真正实现了评测的完全自动化,无需人工进行干预便可以快速得到评测结果。
甲骨易AI研究院始终坚持在研发第一套数据集MMCU时的初心,扎根于中文大语言模型领域,不断思考如何帮助中文大模型拥有更好的理解能力以及更优越的生成能力。甲骨易AI研究院希望通过CG-Eval为中文大模型的发展做出贡献,使中文大模型能够在更多领域和场景落地。
我们相信,CG-Eval只是甲骨易AI研究院一个新的起点,相信在不久的将来,角色扮演、多轮对话、创意生成、闲聊能力、逻辑推理能力也能够拥有完全自动化的评测。
论文链接:
https://arxiv.org/abs/2308.04823
数据集下载地址:
https://huggingface.co/datasets/Besteasy/CG-Eval
评测地址:
http://cgeval.besteasy.com/
- END -
我们更懂世界,让世界更懂我们
点击关注我们,一起超越文明隔阂