方法2.1 模型架构对于输入的包含 M 个模态的组学数据,作者首先在每个模态内部构建一个模态特异的可学习图结构来建模测序点间的语义相关性。为了保证图结构的初始稀疏性和对潜在语义关系的捕获能力,模态特异图 由 K 临近图(K-Nearest Neighbor)进行初始化,并在训练过程中迭代更新:其中 F 表示测序点特征,A 表示由 K-临近算法构建的邻接矩阵,下标 m 表示模态索引。 进一步地,作者将测序点的空间坐标同样进行 K 临近图建模,并设置可学习权重来融合模态特异图和空间信息,获得空间聚合图:其中 和 是可学习参数, 表示基于测序点空间坐标构建的 K-临近图的邻接矩阵。 对于每个模态,作者使用一层图卷积网络做为编码器,基于模态特征 F 和空间聚合图进行模态特异编码:其中 表示图编码器中的可学习参数矩阵。 在获得所有模态(例如 RNA,ADT,ATAC)的模态特异编码后,作者拼接所有模态特异编码,并使用一个多层感知机实现综合编码:
由于邻接图结构的剧烈变化会增加训练过程的不稳定性,作者利用指数移动平均(Exponential Moving Average)构建一个参考图 :其中下标 e 表示训练轮数, 为控制指数移动平均速度的超参数。基于参考图 ,作者使用 F 范数构建同质性损失来约束可学习图结构的变化程度:
3)动态原型对比学习损失
为了克服人工标注缺失和测序点类别数量未知对模型优化的阻碍,作者利用贝叶斯高斯混合模型构建动态原型对比学习损失。 对于综合表示 Z,作者首先设定一个初始聚类数量 C(实验证明 PRAGA 对 C 的取值并不敏感,因此仅需要一个大致的预估值即可),利用高斯混合模型将 Z 分成 C 个簇。其中第 c 个簇的均值和样本数量定义为 和 。作者将每个簇再次尝试划分成两个子簇,并用分割标准判定该簇是否需要被分割成两个子簇:其中 为伽马函数,L() 是以 Normal Inverse Wishart(NIW)分布为先验的边界似然函数,v 和 k 为 NIW 的超参数。若簇的分割标准大于 1,则该簇被进一步分割成两个子簇,每个簇至多只进行一次分割。 相似地,作者依据合并标准来判定两个簇(簇 i 和簇 j )是否需要合并:若两个簇的合并标准大于 1,则将两个簇进行合并,每个簇至多只进行一次合并。在分割和合并操作完成后,作者计算所有簇的均值作为原型开展对比学习: 实验