【NeurIPS2024】将连续潜在变量模型扩展为概率积分电路

学术   2024-11-16 17:02   北京  
来源:专知

本文约1000字,建议阅读5分钟

到目前为止,只有树状的 PICs 被探索过,而通过数值求积训练它们在大规模下需要大量内存处理。


概率积分电路(PICs)最近被提出作为一种概率模型,具备表达能力强的生成模型背后的关键要素:连续潜在变量(LVs)。PICs 是符号化的计算图,将连续 LV 模型定义为函数层次结构,这些函数通过相加和相乘,或者对某些 LV 进行积分而构成。如果可以解析地积分出 LV,则它们是可解的,否则可以通过称为 QPCs 的可解概率电路(PC)来近似,该电路编码了分层数值求积过程。到目前为止,只有树状的 PICs 被探索过,而通过数值求积训练它们在大规模下需要大量内存处理。本文中,我们解决了这些问题,并提出了:(i) 从任意变量分解构建有向无环图(DAG)形状的 PICs 的流程,(ii) 使用张量化电路架构训练 PICs 的方法,以及 (iii) 神经功能共享技术以实现可扩展的训练。在广泛的实验中,我们展示了功能共享的有效性以及 QPCs 相较于传统 PCs 的优越性。



关于我们

数据派THU作为数据科学类公众号,背靠清华大学大数据研究中心,分享前沿数据科学与大数据技术创新研究动态、持续传播数据科学知识,努力建设数据人才聚集平台、打造中国大数据最强集团军。




新浪微博:@数据派THU

微信视频号:数据派THU

今日头条:数据派THU


数据派THU
清华大数据研究中心官方平台,发布团队科研、教学等最新动态及大数据领域的相关信息~
 最新文章