CartesianMoE:通过笛卡尔积路由提升专家间的知识共享

文摘   2024-10-25 10:55   日本  

大型语言模型(LLM)因其在下游任务中的优异表现备受关注。尽管扩展LLM可以提高其能力,但计算复杂性也随之增加。专家混合(MoE)模型通过扩大规模而不显著增加成本来缓解这一问题,但MoE模型的专家之间面临知识共享的挑战。为了解决这个问题,先前的工作提出以“相加”的方式实现知识共享,本文受到协同矩阵分解的启发提出了CartesianMoE,通过“相乘”的方式更有效地共享知识,实验结果显示其在困惑度、下游任务性能及路由鲁棒性方面优于现有MoE模型。

作者:苏振鹏
机构:中国科学院信息工程研究所
Arxiv:https://arxiv.org/abs/2410.16077

方法介绍

先前的共享专家的方式常通过“相加”的方式实现。例如,有一个共享专家,和几个可路由专家 ,专家的知识共享可以表示为

受到协同矩阵分解的启发, 提出通过“相乘”的方式实现专家的知识共享,即 。实现上,定义两个MoE子专家集合,。将每个专家设计为分别来自上述两个集合的子专家组合。例如,

换言之,所有专家都可以通过两个子专家集合的笛卡尔积来导出,因此该方法称之为CartesianMoE。具体来说,CartesianMoE将传统的MoE层替换为一个笛卡尔积层,如图1所示,该层由两个顺序的MoE子层组成,每个子层表示一组子专家,且每个MoE子层都具有各自的router。

图1 CartesianMoE和其它路由策略的比较

实验结果

主要实验结果和分析

评估CartesianMoE和其它MoE模型,在Pile验证集的PPL和在常用benchmarks的性能。如表1和表2所示,在MoE-Base和MoE-Large两个设置下,CartesianMoE不仅能在Pile验证集上具有更低的PPL,在benchmarks上的表现也同样亮眼。

认为CartesianMoE的优势来自于其专家之间更细粒度的知识共享。具体来说,“相加”的方式是通过一个固定激活的专家,实现对全局的知识共享,相比之下,CartesianMoE将专家分成小组,允许每个小组共享一些组内知识。例如专家FFN 和 FFN可以实现对子专家 FFN的知识共享,类似的专家FFN 和 FFN可以实现对子专家FFN的共享。值得注意的是,CartesianMoE也装备了“相加”的方式的共享专家,以实现一个“全局知识共享+分组知识共享”的MoE系统。

表1 PPL结果
表2 benchmarks结果

移除全局共享专家

如表3所示,在移除全局共享专家的情况下,CartesianMoE的表现仍然优于全局的共享专家方式(表中Fine-grained Routing)。这证明了按组的知识共享与全局知识共享同等重要。同时具有分组知识共享以及全局共享专家的模型是最好的,这证明了“全局知识共享+分组知识共享”MoE系统的有效性。

表3 移除共享专家的影响

路由鲁棒性分析

在Pile验证集上,禁用每个token的最高路由概率专家,然后从剩余专家中选择前K个专家,评估由此带来的PPL(困惑度)变化。如表4所示,即使禁用最高路由概率专家,CartesianMoE仍表现出最低的PPL。由此可以见,CartesianMoE具有更强的路由鲁棒性。

表4 屏蔽Top1专家后模型在Pile验证集的PPL

使用更多的算力训练模型

上述的实验仅用100B Tokens训练了最大2.88B总参数的MoE-Large模型。为了探索CartesianMoE在更多训练算力下的性能。分别在MoE-Large和一个总参数量7.25B,激活参数1.61B的更大尺度模型上进行训练,训练的总Tokens量为400B。如表5所示,使用更多的算力训练模型,CartesianMoE仍然优于Fine-grained Routing策略(带全局的共享专家)。该实验结果进一步证明了CartesianMoE的优越性和可扩展性。

表5 MoE-Large和7.25B参数量的模型训练400B后的性能*

还在图2和图3进一步给出了整个预训练过程中模型在benchmarks上的性能,在大部分benchmarks上,CartesianMoE始终表现出了更强的性能。

图2 MoE-Large在benchmarks的性能
图3 7.25B参数量的模型在benchmarks的性能

写在最后

本文受协同矩阵分解方法的启发,提出了CartesianMoE,一种在MoE模型中以“乘法”方式进行知识共享的方法。该模型将细粒度子专家划分为两个不同的集合,通过其笛卡尔积构建专家,从而促进组内的知识共享。相比已有的共享专家模型,CartesianMoE构建了一个更全面的知识共享系统,即“全局共享知识 + 组内共享知识 + 专家特有知识”。大量实验表明,CartesianMoE在语言建模困惑度和下游任务表现方面均优于现有的MoE模型,并因其增强的知识共享机制,在路由鲁棒性上也有显著提升。

计划在近期发布一个通过2T Tokens训练的7.25B模型,欢迎保持关注!

PS:看到这里,如果觉得不错,可以来个点赞在看关注。给公众号添加【星标⭐️】不迷路!您的支持是我坚持的最大动力!

欢迎多多关注公众号「NLP工作站」,加入交流群,交个朋友吧,一起学习,一起进步!

NLP工作站
日常分享AIGC前沿知识&落地经验总结,也欢迎关注《ChatGPT原理与实战》、《大型语言模型实战指南》两本大模型相关书籍
 最新文章