为大脑中不同可塑机制提供规范性解释,突触可塑性模型的统一理论

科技   2024-10-30 00:02   上海  

Learning what matters: Synaptic plasticity with invariance to second-order input correlations 2024

https://journals.plos.org/ploscompbiol/article?id=10.1371/journal.pcbi.1011844



摘要
皮层神经元群体发展出适应环境统计特性的稀疏表示。为了学习有效的群体编码,突触可塑性机制必须从无处不在的皮层网络输入相关性中区分出相关的潜在特征。本文提出了一种稀疏编码和突触可塑性理论,该理论对输入中的二阶相关性具有不变性。超越经典的(Hebbian)学习,我们的学习目标解释了观察到的兴奋性可塑性机制的函数形式,并展示了Hebbian长期抑制(LTD)如何消除对二阶相关性的敏感性,从而使感受野与高阶统计特征中的隐藏特征对齐。对二阶相关性的不变性提高了生物现实学习模型的通用性,支持从噪声输入中进行最佳解码,以及从空间相关刺激中进行稀疏群体编码。在一个具有三重脉冲时间依赖可塑性(STDP)的脉冲发放模型中,我们证明了单个神经元可以学习局部定向的感受野,从而无需对输入进行预处理,如白化或群体层面的侧抑制。该理论推进了我们对皮层电路中局部无监督学习的理解,为比恩施托克-库珀-蒙罗(Bienenstock-Cooper-Munro)模型和三重STDP模型提供了新的解释,并为锥体神经元中的突触LTD机制赋予了特定的功能角色。

作者摘要

为了理解我们的大脑如何从海量的感官信息中筛选出有意义的刺激,实验者通常关注单个神经元及其感受野,即最能刺激神经元的输入模式。神经元的感受野通过其传入连接的结构和强度的可塑性变化来适应环境的统计特性。现有的适应模型,如稀疏编码和BCM理论,表明这些连接以自组织、无监督的方式进行调整,从而使神经元能够从感官输入流中提取相对罕见但复杂的模式。我们的理论扩展了这些模型,证明了BCM模型的某些变体能够选择性地忽略普遍存在的二阶相关性,并专注于感官刺激流中的相关稀疏信号。我们发现了突触可塑性两个方面(线性长期抑制LTD和非线性长期增强LTP)之间精心校准的相互作用。这种平衡使学习策略对感官输入的复杂统计特性(高阶相关性)敏感。与早期方法相比,所谓的预先白化(以去除二阶相关性)是不必要的。我们的发现不仅为理解突触可塑性的多种作用提供了新的框架,还为人工神经网络的发展提供了见解。


引言

皮层感觉区域包含了外部世界的丰富表征,单个神经元会对特定的刺激做出选择性反应[1, 2]。这些表征在生命早期形成,并持续适应环境的统计特性[3]。虽然突触可塑性被认为是皮层学习的核心,但这些生物过程如何发展感官表征仍不清楚。感官发展的规范性模型,包括稀疏编码、独立成分分析和比恩施托克-库珀-蒙罗(BCM)可塑性[4–6],假设皮层回路通过自组织学习有效的稀疏表征,使其感受野与输入群体活动中隐藏的稀疏潜在特征对齐。

虽然突触可塑性模型可以对稀疏潜在特征敏感,但Hebbian机制也对输入的二阶相关性敏感。尽管像视网膜处理[7]和反复抑制[8]这样的机制可以去除神经活动的相关性,但二阶相关性在皮层网络中仍然普遍存在[9–11]。在这种情况下,输入相关性(“二阶相关性”)可能会掩盖稀疏潜在特征(“高阶相关性”),从而使学习主要受到方差最大输入方向的主导,类似于主成分分析[12],发展出对相关输入集群的选择性[13–15],但通常无法学习稀疏表征[16, 17]。之前的一些稀疏感官表征模型通过假设输入去相关和相同的发放率来规避这个问题,通过称为“白化”的预处理步骤人为地去除输入相关性[4, 18, 19]。

因此,皮层学习机制如何从自然输入统计中学习,去除虚假的输入相关性,同时保持对高阶相关性的选择性,仍然未知。此外,从稀疏编码模型推导出的可塑性规则与实验数据的关系往往处于高层次,无法解释可塑性机制之间的功能差异。特别是,同突触LTD和神经元范围(异突触)抑制机制或稳态之间的选择性作用仍然不清楚[20–22]。

在这里,我们发展了一种皮层无监督学习理论,该理论可以选择性地学习稀疏潜在特征,同时考虑到突触前神经元的多样统计特性。我们证明了对(二阶)输入相关性的不变性导致了生物学上合理的可塑性机制,这需要非线性HebbianLTP和标准HebbianLTD,与包括元可塑性稳态因子在内的机制相结合,其中特别包括BCM[23, 24]和三重STDP模型[25]等兴奋性可塑性的经典模型。我们表明,这一系列的可塑性模型优化了目标函数,类似于稀疏编码模型的目标函数[4, 26],但增加了对二阶相关性不变性的额外约束。

因此,我们的目标函数旨在选择性检测稀疏特征,同时忽略突触输入中可能存在的较大二阶相关性。

在复杂度逐渐增加的模拟中,我们展示了二阶相关性不变性如何使生物学上真实的模型能够学习有效的解码器和稀疏群体编码,发展出能够补偿单个神经元噪声、神经元发放率异质性和神经元群体振幅波动相关性的突触权重。将其应用于感官整合任务时,优化稀疏性等同于对噪声输入进行最优整合,根据它们的规模和可靠性进行加权,从而获得接近最优的线性解码器。在相互连接的神经元群体中,即使输入具有很强的空间相关性,相同的可塑性规则也能使神经元得到精确调整。

此外,我们将理论应用于视觉感官发展的脉冲模型,在该模型中,脉冲神经元能够从空间相关的自然刺激中学习局部感受野,即使在没有去相关电路机制(如反复抑制)的情况下也是如此。

具有二阶相关性不变性的学习为LTP(长时程增强)、LTD(长时程抑制)和稳态分配了功能角色。特别是,线性HebbianLTD对于二阶相关性不变性至关重要,而其他稳定性机制(如异突触可塑性[20, 27])则无法提供相关性不变性。我们的理论为大脑中几种不同的可塑性机制提供了规范性解释。这些结果扩展了我们对如何在皮层回路中实现具有局部Hebbian可塑性的无监督学习的理解。


结果

突触可塑性作为稀疏特征学习

我们假设单个神经元中的突触可塑性实现了一种算法,用于学习同时从多个突触传入的输入中隐藏的特征。从这一观点出发,感觉神经元在发育过程中形成的感受野是成功进行特征学习的一种表现。我们首先从一个简化的速率神经元y开始考虑,其激活状态y由公式给出,通过突触连接接收N个输入,其中(.)+表示修正线性激活函数,当否则y = 0。我们将突触连接的向量w称为权重向量。


我们假设输入特征具有稀疏性且非高斯统计特性,这与稀疏编码和独立成分分析(ICA)框架[4, 5]中的情况类似。稀疏统计指的是长尾分布,与具有相同方差的高斯分布相比,这种分布出现非典型样本的概率更大。例如,自然图像中局部定向滤波器的分布可以建模为拉普拉斯分布,其尾部比随机滤波器的分布更长[16, 28]。具有不频繁的全或无发生特征(如低概率伯努利分布)的特征也是稀疏的。由于稀疏特征的线性混合比单个源信号的稀疏性更低,因此我们可以将稀疏性作为优化原则来识别它们[16]。由于稀疏性是在将分布归一化为单位方差后由其形状决定的,因此它与二阶统计量无关。相比之下,高斯成分的分布完全由其二阶特性决定。在这些假设下,二阶相关性无法提供有关潜在特征的信息。

如果输入已经去相关并归一化(即白化),即经过预处理以具有单位协方差矩阵和单位发放率,那么使用局部可塑性模型学习这些特征是可能的[19, 29, 30]。对于这样的预处理输入,已经证明了一大类稀疏最大化方法可以检索潜在特征[17]。传统上,输出活动y的稀疏性是通过高阶统计量来量化的,如(与峰度相关的度量),其中h.i表示对数据样本{x}的期望,或者更一般地,通过某个非线性函数F(.)的目标函数hF(y)i来量化[29, 31]。在线可塑性规则(例如,通过随机梯度下降推导得出)在归一化权重向量的约束下收敛到最大化该目标的解。

其中,η是学习率,f(.)是F(.)的导数。一般来说,该算法对非线性函数f(.)的具体形状具有较强的鲁棒性[17, 31]。特别是,如果F(y) = 1/3 * y2,这与下面讨论的活动依赖性模型的已知实验和理论结果相关。等式1-a的学习规则可以解释为具有非线性Hebbian形式的长时程增强(LTP)的活动依赖性突触可塑性模型[17]。等式1-b确保权重向量的归一化,并且与权重衰减[32]相关。归一化是权重向量稳定化的严格形式。较弱的稳定化形式可以通过动态机制来实现,例如异突触抑制[27]。

然而,如果不同的输入神经元具有不同的发放率或它们之间存在二阶相关性,那么上述简单的稀疏性目标及相关学习规则将无法学习到所需的特征[17]。它们不会检索稀疏特征,而是像主成分分析(PCA)方法一样学习方差最大的输入方向。在本文中,我们在没有进一步说明的情况下使用“相关性”一词来表示二阶相关性,并明确提及高阶相关性(例如,“三阶相关性”)。


相关性不变学习理论

我们的目标是找到一种突触可塑性规则,它能够区分相关信息和无关信息,即使突触输入表现出大振幅的虚假二阶相关性,也能提取出低振幅的稀疏特征。在这里,“虚假”指的是具有高斯振幅分布的调制,而特征则由稀疏的非高斯分布定义。

虽然这个稀疏性目标对相关性是不变的,但它仍然对输入的一阶统计量(即输入均值)敏感,这可能会主导学习目标。基于我们关于兴奋性可塑性的目的是学习高阶统计量的假设,我们假设神经元会减去输入均值,因此,在我们的所有模拟中,我们都将输入归一化为零均值。短期抑制[34]和突触阈值适应[35]可能是近似皮层神经元输入均值消除的候选过程。

等式2-a是一个结合了非线性Hebbian增强和线性Hebbian抑制的突触可塑性规则。在这里,“非线性”(或“线性”)指的是对突触后神经元活动y的二次(或线性)依赖。重要的是,抑制项的幅度由一个元可塑性函数hy调制,该函数跟踪突触后活动速率的平方,即y²,该值由等式2-b估计得出。我们假设,这样的收敛速度会比权重更快。


我们通过一个神经元的例子来说明相关性不变性的影响,该神经元从三个来源接收输入:第一组是20个具有共同单位振幅稀疏信号的输入,第二组是20个具有共同高振幅高斯信号的输入,第三组则是具有小幅度且互不相关的背景活动的输入(图1A)。相关性不变的学习规则能够学习到稀疏信号,尽管其振幅较低,这证明了它对高阶相关性具有选择性敏感性(图1C和1E)。上述陈述对于峰度式BCM模型(其中

,图1E所示)同样适用。因此,存在一类相关性不变规则,而不是单一的具体规则实现(方法部分)。

为了进行对比,我们还模拟了一个类似的可塑性模型,但其中的异突触LTD(长时程抑制)机制是从Oja学习规则[12]中改编而来的,即权重的变化。尽管该模型具有非线性LTP(长时程增强)因子[17],但它学习的是高振幅高斯分量,就像PCA(主成分分析)模型和原始的Oja规则一样(图1D和1E)。这些模拟结果表明,异突触LTD机制提供了稳定性,但并不能实现相关性不变性。


线性LTD实现相关性不变性

为了解释突触可塑性的现象学特性,已经提出了许多机制,但这些机制的具体属性和相互作用尚不清楚[18, 27, 36, 37]。先前的研究表明,有效的非线性Hebbian LTP(长时程增强)因子是稀疏特征学习的关键机制,这在许多模型中都很普遍[4, 5, 17, 38]。然而,非线性Hebbian学习并不是一种充分的机制,这从它在存在大的二阶输入相关性的情况下失效就可以看出。我们的相关性不变学习理论使我们能够将这些模型扩展到更一般的设置,并为LTP(长时程增强)、LTD(长时程抑制)和稳态分配不同的功能角色。重要的是,仅仅添加任何类型的LTD或稳态来实现LTP和LTD的平衡是不够的,而上述结果表明,有一种优选的添加LTD的方式可以实现特别巧妙的平衡,因为它对二阶相关性进行归一化,而不是对平均发放率进行归一化。而这种特定的LTD形式在突触前和突触后发放率中是线性的。换句话说,LTD因子必须与xy成正比(而不是与成正比)。


让我们回顾一下Hebbian学习与主成分分析(PCA)之间的经典关系[12]。PCA算法通过目标函数F(y) = Σyᵢ²(对于线性神经元来最大化输入的方差,并可以通过线性Hebbian学习规则Δw ∝ x y(其中有一个正比例常数)来实现。相比之下,在相关性不变规则类中,抑制项(即LTD项)与突触前和突触后活动是线性的,并且具有一个负比例常数-x y,这会产生从学习规则中去除对协方差依赖性的效果,我们可以称之为“反PCA”效应。因此,在线学习过程将独立于输入相关性特征来学习特征。

为了实现完全的相关性不变性,LTD(长时程抑制)机制必须消除正确数量的二阶依赖性。我们可以证明(方法部分,方程20–26),当稳态因子hy使LTP(长时程增强)和LTD在权重向量方向上相互抵消时,正是发生了这种情况。权重向量方向上的分量与突触连接的稳定性(即权重向量的范数)有关,以下将称为“稳定性方向”。正交方向则与特征选择性有关,决定了学习了哪个特征。在图1F中,我们在二维设置中给出了这一机制的几何说明,将权重分解为稳定性和选择性分量。关键见解是,稳定性分量的变化只会缩放输入,仅影响二阶统计量,而不会改变归一化的高阶统计量。当权重向量接近其稳定值时,LTD因子在两个分量中都会精确抵消LTP因子的二阶依赖性,从而实现相关性不变学习。相比之下,异突触LTD与权重向量w成正比,并且不在选择性方向上起作用,从而使LTP选择性依赖于二阶统计量。重要的是,任何强制权重向量归一化的可塑性模型都无法在存在二阶相关性的情况下普遍检测稀疏特征,因为权重向量的范数需要自我调整以反映二阶和三阶相关性(或对于峰度模型为二阶和四阶相关性)的比率,而这个比率取决于事先未知的信号属性(方法部分)。


对输入振幅的不变性

皮层神经元从前突触神经元接收具有复杂发放统计特性的输入[39]。由于经典Hebbian学习对前突触神经元的活动水平敏感[12],因此当不同前突触神经元表现出不同的发放率调制尺度时,许多广泛使用的可塑性模型将无法学习到预期的特征。然而,相关性不变学习规则可以补偿这种差异。例如,假设稀疏信号以不同的振幅到达不同的突触,但总是具有相同的信噪比(图2A)。在这种情况下,每个输入都有不同的二阶统计量(图2B)。学习后,突触权重与信号振幅成反比(图2C),导致每个输入对总输入信号的贡献相同。我们可以通过估计学习后输出信号的信噪比来量化学习规则的效率,并将其与经过线性回归训练以输出稀疏潜在特征的最优线性解码器的信噪比进行比较。我们可以看到,相关性不变模型几乎实现了对潜在信号的最优恢复(图2E)。

这种不变性可能对于具有大树突的神经元很重要。例如,输入尖峰对胞体膜电位的影响会因树突衰减而减小,树突衰减随突触与胞体之间的距离而变化。已经观察到,突触强度可以补偿树突衰减,并且远端突触与近端突触具有相同的去极化水平[40]。注意,我们总是模拟点神经元模型。然而,如果我们将输出写为,那么我们隐式地假设xj表示胞体的兴奋性突触后电位(EPSP)幅度。在存在树突衰减的情况下,如果突触距离较远,则突触位置处的相同突触电流在胞体处产生的EPSP会更小。因此,对于输入中具有相同的信噪比,远处突触的总体胞体幅度会更小。在假设存在树突衰减的情况下,我们的模型预测具有相关性不变可塑性的神经元会补偿这种衰减,因为它通过自我组织突触权重来补偿突触输入之间的线性差异。重要的是,与早期工作[41]相比,这种突触可塑性规则在补偿信号幅度差异的同时仍然对输入中的稀疏特征敏感,从而将树突衰减的补偿置于规范性框架内。



从噪声输入中进行最优解码

在对感官变量进行推断时,大脑会整合来自多个不可靠源的信息,并根据它们的可靠性对其进行加权[42, 43]。为了学习这种高效的解码器,神经回路必须能够根据每个输入所传达的信息来调整输入的突触,寻找最具信息量的输入组合。在解码稀疏潜在变量时,恰好信号噪声比最高的方向也是分布最稀疏的方向,这使得经典独立成分分析(ICA)算法在存在噪声的情况下同样适用[44]。因此,我们可以利用稀疏学习目标来恢复最具信息量的方向,并使用相关性不变学习规则来学习高效的解码器。

我们模拟了一个神经元,其输入具有不同的信号噪声比(图2F和2G)。相关性不变学习规则会根据输入信号的噪声比来发展权重,对信息量更大的输入赋予更高的重要性,从而使输出信号的噪声水平接近最优线性解码器(图2H和2J)。重要的是,这种可塑性规则不仅仅选择信号噪声比最高的那一个输入突触,而是选择所有携带信号的输入突触,尽管它们的重要性权重不同。另一方面,具有异突触长时程抑制(LTD)的学习规则会根据输入信号的幅度来学习权重,对输入信号的噪声水平不太敏感(图2I和2J)。

这些结果表明,相关性不变可能是感觉信息和多感官整合中实现近最优解码的基本学习机制,这与实验观察结果一致[42, 43]。与基于最大信息传输的相关模型(如独立成分分析[5])相比,相关性不变模型对输入分布的假设最少。单个可塑性规则就能为不同的输入尺度、噪声水平和稀疏潜在分布学习高效的解码器。


从相关输入中学习稀疏群体编码

到目前为止,我们主要考虑了单个神经元的学习特性,但实际上感官网络包含由多个神经元组成的群体,群体中每个神经元代表潜在空间的不同部分,这可以通过群体的调谐曲线来体现。感官信号的调谐曲线会根据输入刺激的统计特性进行调整,特别是对于行为上相关的刺激,调谐曲线会更加尖锐,这为高效感官辨别提供了神经基础[45-47]。由于相关性不变可塑性会导致稀疏且高效的响应,我们在此展示了其学习由多样且嘈杂的输入群体编码的连续刺激稀疏群体编码的能力。

我们考虑一个线条刺激(或加博斑刺激),其方向随时间缓慢变化。该刺激由一个嘈杂的输入群体编码,输入调谐曲线覆盖了方向角的空间(图3A和3B)。由于每个输入神经元只对输入空间的一部分有选择性,因此它们表现出稀疏活动,调谐曲线的重叠会在相邻神经元之间产生正输入相关性(图3C)。

我们将单个神经元模型扩展到输出神经元群体,输入到输出的突触遵循等式2中的相关性不变可塑性规则(图3D)。在皮层网络中,反复抑制被认为可以使兴奋性神经元去相关,从而使它们能够学习不同的特征[26, 48, 49]。因此,我们在输出神经元之间加入了抑制性反复连接,这被视为局部兴奋性-抑制性网络的简化有效描述[50, 51]。反复连接根据基于协方差的可塑性规则发生变化[48]。为了避免由于同时发生的兴奋性和抑制性可塑性导致的动态不稳定,我们在两者中都加入了乘法权重衰减[20]。

学习后,输出神经元形成了墨西哥帽状的突触权重分布,其作用是消除输入相关性,从而形成群体编码,该编码用比输入层输入更尖锐的调谐曲线覆盖了线条方向的空间(图3E,平均调谐宽度σθ=0.07;输入调谐宽度σθ=0.11)。与单个神经元情况下相同的学习原则一样,通过学习形成的群体编码可以解释为具有最小冗余的高效编码。相比之下,具有异突触LTD的学习规则会形成更宽的调谐曲线,这些曲线遵循由输入相关性主导的大方差输入方向(图3F,σθ=0.17)。

在更现实的情况下,感官群体必须从具有不同调谐特性的神经元中解码信息。由于我们期望相关性不变规则对这类输入特性具有不变性,因此我们测试了在存在输入异质性时该可塑性模型的表现。我们模拟了具有不同宽度、幅度和噪声水平的输入调谐曲线。如图3G所示,相关性不变模型学习到的群体编码具有与均匀输入调谐相似的特性(σθ=0.08),对更精确的输入神经元具有更高的选择性。另一方面,没有相关性不变性的模型学习到的调谐曲线更宽(σθ=0.14),这取决于输入调谐特性。特别是,神经元对调谐更宽的输入神经元发展出更多的选择性,而不考虑其精确性(图3H)。

我们已证明,相关不变可塑性会导致更尖锐的调谐曲线,这些曲线与适应性神经反应相关联[45-47]。然而,调谐曲线更尖锐并不意味着费雪Fisher信息(一种用于评估群体编码效率的指标)更高[52]。费雪Fisher信息与群体编码的尖锐度之间的关系十分复杂,取决于潜在维度[53]、侧向交互作用的强度[54]、神经元数量或解码时间[55]以及输入调谐特征[56, 57]。在我们的模型中,具有更宽调谐曲线的对照网络的估计费雪信息高于通过相关不变规则学习的更尖锐代码的费雪信息(对于同质输入调谐,对照网络的费雪信息FI = 38 × 10³,相关不变网络的费雪信息FI = 36 × 10³;对于异质输入,对照网络的费雪信息FI = 38 × 10³,相关不变网络的费雪信息FI = 33 × 10³)。这一结果表明,这种皮层可塑性模型并未优化费雪信息。尽管费雪信息对于群体编码而言是一个重要指标,但在考虑实际约束条件(如布线约束和下游读出群体的限制)时,最优费雪信息的适用性可能有限[55]。

具有相关输入的感官发育脉冲模型

可塑性模型的相关性既来源于可塑性规则的生物学合理性,也来源于可塑性规则嵌入到合理的脉冲神经元网络中所涌现的功能。相关不变学习规则在从皮质兴奋性突触的实验数据中提取的可塑性规则中具有坚实的基础。皮质发育由电压依赖性和脉冲时间依赖性可塑性(STDP)驱动,突触变化取决于突触前和突触后脉冲的相对时间[58]。特别是,兴奋性突触的可塑性可以通过基于电压的克洛帕特(Clopath)模型[18]或三重STDP模型[25]很好地建模,其中长时程增强(LTP)取决于一个突触前脉冲和两个突触后脉冲,而长时程抑制(LTD)则取决于单个突触前和突触后脉冲(图4C)。三重STDP模型是从实验数据中推导出来的[25],特别是从脉冲三重组和STDP频率依赖性的实验中[59, 60]。考虑到泊松放电规则和一种稳态机制,三重模型可以在相当一般的假设下简化为我们迄今为止所考虑的速率模型,即Δw = η (x y² - hy x y)[18, 25, 61]。从这一关系中,我们可能会期望一个具有三重STDP的感官发育脉冲模型能够表现出相关不变性。相对于速率模型,脉冲模型因其训练难度而臭名昭著,额外的困难包括脉冲可变性和脉冲-脉冲相关性[61]。此外,脉冲限制了输入表示必须为非负,从而改变了感官信息的处理方式。

我们实现了一个用于稀疏群体编码的脉冲网络,模拟了自然图像中V1感受野的发育(图4A和4B)。这是一个经典例子,其中神经元对其输入的特定属性发展出选择性,网络创建了一个局部方向选择性特征的字典,这些特征是自然图像的稀疏特征[4, 28]。然而,这些模型并未区分高阶和二阶相关性的编码,并且依赖于对输入进行去相关和归一化预处理[17]。尽管已知视网膜通路会对视觉刺激进行部分去相关,但传入皮质神经元的输入仍保留了一定程度的相关性[9-11]。在空间相关性存在的情况下,其他模型依赖于循环抑制,这会使网络学习的特征多样化[19, 62]。在单个神经元或小网络学习输入图像的主成分(非局部空间傅里叶滤波器)的情况下,只有当循环抑制很强且网络足够大时,稀疏编码的特征才会出现[4, 19]。受相关不变理论的启发,我们想测试STDP模型是否能够在不调用侧向抑制连接的情况下,直接从包含空间相关性的自然刺激中学习局部滤波器。

我们考虑了一个自然图像块的数据集,将其编码为ON和OFF脉冲输入,相邻像素显示正输入相关性(图4A)。与速率模型类似,我们在输入-输出连接上实现了三重STDP,输出神经元建模为泄漏积分放电(Leaky Integrate-and-Fire)神经元,并引入了具有抑制性可塑性的循环抑制(图4B,见方法部分)。

为了探究单个输出神经元是否可能进行学习,我们首先在没有侧向抑制的情况下运行了模型。学习后,神经元发展出了由ON和OFF部分组成的局部感受野,类似于在V1中观察到的现象(图4D),这表明即使没有侧向抑制,模型也能发展出稀疏特征。尽管每个神经元都有相同的输入,但由于突触权重的随机初始条件,我们看到了感受野的多样性。当包含侧向抑制时,模型学习到了类似的局部滤波器字典(图4E)。虽然在这种设置下,侧向抑制对于学习局部滤波器不是必需的,但它确保了感受野的多样性[4, 17]。

我们将我们的结果与三重STDP模型的变体进行了比较,其中包括用异突触LTD因子替代了原始的赫布(Hebbian)LTD因子,并发现在这种情况下,所有神经元都学习到了一个覆盖整个图像块的非局部感受野,这是输入主成分的预期结果(图4F)。只有当包含侧向抑制时,才出现ON/OFF感受野,尽管它们并未完全局部化(图4G)。这表明,在没有相关不变性的情况下,脉冲模型对输入相关性敏感,并需要侧向抑制来强制将输入空间划分为稀疏调谐曲线。这些结果表明,虽然相关不变性对于学习稀疏调谐曲线是足够的,但侧向抑制也能产生类似的效果,这两种机制可能在皮质回路中并行工作。总之,通过对输入噪声、缩放和二阶相关性增加鲁棒性,相关不变性的脉冲版本支持脉冲网络发展出具有多种局部感受野的感官表征。


讨论

我们已经将相关不变性作为皮质突触可塑性的关键属性进行了介绍。相关不变性是从特征学习的规范性视角中推导出来的,在该视角中,皮质神经元对稀疏潜在特征发展出响应[4, 17, 26],同时区分高阶和二阶相关性。通过忽略输入相关性,我们展示了可塑性皮质网络如何能够解决高效的解码任务,并以鲁棒性和多功能性学习稀疏群体编码。

相关不变性与原始的赫布学习观点形成对比,后者基于联想学习[12, 63]。相反,相关不变性模型忽略线性相关性,仅学习高阶相关性。关键机制是线性LTD因子,这与在兴奋性突触的配对实验中拟合的模型相一致[18, 25, 59, 60],我们的结果为此提供了功能解释。我们的理论扩展了我们对赫布机制的先前理解,并可能有助于开发更复杂的表征学习模型。


突触可塑性模型的统一理论

统一理论具有整合多种模型的能力,能够清晰地揭示它们之间的关系以及各自独特的特征。它们还强调了所有模型共有的关键机制。例如,先前的研究强调了非线性长时程增强(LTP)因子在突触可塑性中的重要性,这使其能够对高阶统计信息敏感[17, 29]。相关不变性理论则引入了稀疏特征学习的另一个关键机制:线性长时程抑制(LTD)因子,它减轻了二阶输入相关性的影响。因此,我们的发现扩展了突触可塑性的理论,揭示了LTP和LTD平衡所必需的机制。重要的是,线性LTD因子与Sjostrom等人[59]在STDP实验中发现并在三重STDP模型[25]中描述的频率依赖性相一致。

BCM和Oja学习规则等赫布模型已有数十年的历史,许多研究调查了它们的功能特性,包括稳定性、特征选择性和感受野发展[24, 29, 33, 64]。特别是,BCM模型因其对高阶统计信息的选择性(由非线性LTP因子实现)和元可塑性稳定机制而受到关注。已观察到,当输入图像通过高斯差分滤波器进行预处理(因此并未完全白化)时,BCM变体可以学习局部感受野,这表明它们对二阶矩的敏感性较低[33, 38]。在我们的推导中,我们形式化了这些观察结果,揭示了某些BCM模型实际上对二阶统计信息具有完全不变性,这是理解它们独特功能的关键属性。

相比之下,Oja的原始规则[12]仅学习二阶相关性(由于其线性LTP因子),而稳定性则是通过异突触权重缩放实现的突触抑制来实现的。然而,Oja的异突触权重缩放与BCM的反赫布抑制因子之间的功能差异一直不明确。我们的分析表明,线性LTD允许在特征方向上实现相关不变性,而Oja的异突触权重缩放仅作用于稳定性分量。重要的是,只要LTP模型在后突触活动中是非线性的(例如,y²或y³),而在前突触活动中是线性的,我们关于权重缩放和线性LTD之间功能差异的结果在很大程度上就与LTP模型无关。这种非线性是BCM模型在1982年预测的[23],并通过三重STDP模型对实验数据的分析得到了证实[25]。因此,现在可以在一个理论框架内并基于实验数据将多个理论可塑性模型统一起来。

我们还发现了BCM、独立成分分析(ICA)和稀疏编码之间有趣的关系,这些都是早期感官发展的经典模型。ICA和稀疏编码从相似的规范性假设出发,将输入视为潜在稀疏特征的混合[65]。我们的归一化目标函数F(y/σy)可以看作是稀疏编码标准公式的替代,稀疏编码通常定义一个原始目标函数F(y),其中权重向量的归一化作为进一步的约束条件添加[17]。尽管BCM模型最初是作为赫布学习的稳定版本提出的,但我们已证明它自然地与稀疏特征学习的规范性公式相关联,其每个元素似乎都是为这项任务而设计的。我们相信,我们的理论为分析和开发赫布可塑性模型提供了系统基础。

尽管我们的理论基于单神经元目标,但我们的网络模拟表明,相关不变性学习与学习网络表示是兼容的。研究如何将相关不变性理论与学习稀疏、高效表示的相关规范性模型相结合至关重要[19, 49]。


皮层神经元的相关性不变性
相关性不变的学习规则与基于脉冲时间依赖可塑性(Spike-Timing-Dependent Plasticity,STDP)的现象学模型具有精确的对应关系,这些模型包括三重STDP模型和电压依赖性STDP模型,它们简化为长时程增强(LTP)的二次突触后因子和长时程抑制(LTD)的线性突触后因子[18, 25]。特别是,我们的理论表明,锥体神经元应该包含突触LTD机制,该机制在突触前和突触后活动中均呈线性,这与根据配对协议数据拟合的兴奋性突触模型[18, 25]一致。由于线性LTD因子的实验证据仅为间接证据,是从最佳拟合模型中推断出来的,因此,在突触前和突触后神经元泊松放电时间下进行配对实验,进一步探究这些特性在多大程度上成立,将是非常有价值的[66]。

先前的理论研究已经表明,三重STDP模型将BCM模型推广到时空域[25],能够学习高阶输入脉冲模式,这是由对突触后脉冲的非线性依赖性所实现的[18, 61]。这些模型包括一个作为稳定机制的稳态因子hy,正如在原始三重STDP模型中已经提到的那样[18, 25, 61]。然而,除了其在稳定中的一般作用外,本文还表明,LTD项的线性对于在可能存在大量二阶相关性的情况下实现特征选择性至关重要。因子hy的滑动(相当于原始BCM模型中的“滑动阈值”[23])在过去被解释为元可塑性或稳态。但是,由于传统的元可塑性实验是在较长时间尺度上进行的[20],因此尚不清楚是否存在足够快的速率检测器来履行相对快速的滑动因子hy的功能[67]。原则上,稳定性也可以通过其他机制实现,如异突触可塑性,但在这种情况下,相关性不变性将是部分性的并且依赖于输入统计量。在这种情况下,高阶统计量和二阶统计量的学习之间将存在折衷。塑性规则对二阶统计量的一些敏感性可能对其他任务有用,例如学习联想记忆[27]。

我们的结果并不与从相关性中形成赫布(Hebbian)集合相矛盾,而是提供了相关性如何驱动集合形成的更精细观点。对赫布集合形成(也称为记忆印迹)的实验测试已在多个脑区进行[68–71]。通常,在训练刺激期间,一组神经元会同时被激活,刺激在一段时间后停止。这种切换过程与图1A中的假设非常相似,并诱导出强烈的非高斯放电率分布,从而产生强烈的高阶相关性。因此,尽管图1聚焦于单个突触后神经元,但我们的模拟与现有的集合形成实验范式是一致的。在关于脉冲神经元递归网络的研究中,多篇建模论文表明,三重STDP规则的变体(类似于本文中的STDP规则或BCM速率模型)导致了赫布集合的形成[18, 27, 72]。同样,所使用的诱导协议采用了生成不仅二阶而且高阶相关性的切换过程。重要的是,我们的分析见解预测,集合的形成主要由高阶相关性驱动,而仅由二阶相关性微弱驱动,甚至完全不驱动。这一见解并不与早期工作相矛盾,但表明诸如“集合形成由相关性驱动”之类的说法应转化为更精确的表述:“集合形成由高阶相关性驱动”。这也与高阶相关性在理论STDP模型中的功能作用相一致[61, 73, 74]。

一些关于突触权重分布的研究结果提供证据表明,皮层突触通过相关性不变性进行自组织。已经观察到,远端突触相对于近端突触相对上调,并且在总体上具有与近端连接相同的体细胞效应量级[40]。关于突触分布如何依赖于输入放电率和相关性的实验将是探究皮层回路中相关性不变性可能在何种程度上起作用的理想实验。



在多样化条件下学习高效群体编码
实验证据表明,灵长类动物能够像近乎最佳的解码器一样组合不可靠的感官信息[42, 43]。规范性群体编码模型通过定义每个神经元对刺激所代表的内容来应对这一任务,例如,对数似然率[75]或概率分布[76],从而可以设计出解码器。使用局部规则来学习这种设计是困难的,特别是当输入的可靠性和相关性未知时[77]。

相反,相关性不变的稀疏目标在算法层面起作用,对输入如何表示潜在变量的假设最少。通过假设潜在变量是稀疏的,该目标等价于最大化信噪比,从而最大化信息传输,使具有尖锐调谐和低噪声的群体编码得以发展。然而,这些特性并不意味着群体编码的费雪信息得到了优化[53–55]。稀疏性模型与其他规范性群体编码模型之间的关系是今后研究的重要课题。


寻找生物学习算法
表征学习是一项艰巨的任务,令人困惑的是大脑如何能够发展、维持和适应外部世界的复杂模型。直到最近,人工学习模型才能够使用非常大且复杂的网络进行学习,但这些方法并不容易映射到生物机制上[78, 79]。

在没有监督信号的情况下,无监督的Hebbian学习(Hebbian plasticity)为学习表征提供了框架,并可能是皮层通过局部信息学习的基础[80–82]。强化学习是理解生物学习的另一个核心范式,人们认为它在神经调节剂和奖励调节可塑性中具有生物实现。的确,有证据表明奖励性学习影响了感觉皮层中输入表征和感受野[83, 84]。神经调节剂如何与Hebbian机制相互作用是一个活跃的研究领域[85–87]。将稀疏特征学习和相关性不变理论整合到强化学习目标中将会很有意思。相关性不变扩展了Hebbian可塑性的理论和功能,并可能成为生物学习模型和理论的另一个构建块[88]。


方法
归一化目标函数的线性不变性

我们考虑无约束的归一化投影追踪目标(称为相关性不变目标),即输出活动y被归一化,且总权重|w|的范数未指定,形式为:

在BCM模型(使用sigmoid激活函数而非线性整流器)的一种变体中,已经考虑了归一化偏度对比函数,并且下面的推导遵循类似的步骤来从中得出在线学习规则[23, 33]。在w上进行梯度上升,我们得到


具有稳定权重的相关性不变学习规则族


总之,我们已经展示了相关性不变学习规则的家族具有以下形式:


模拟

对于脉冲神经网络,我们生成了从黑白自然图像[4]中采样得到的16x16像素的图像块,并将其分为ON和OFF细胞,总计512个输入神经元。输入脉冲序列作为泊松过程生成,其速率由像素幅度调制,每个数据样本的持续时间为100毫秒。我们模拟了64个输出神经元,作为标准的泄漏积分放电(Leaky Integrate-and-Fire, LIF)神经元,其静息电位Vrest为-65毫伏,阈值电位Vthreshold为-50毫伏,复位电位Vreset为-65毫伏,膜时间常数τmem为15毫秒。我们通过一个负输入电流模拟了输入均值消除机制,其幅度跟随输入放电率的估计值变化,该估计值通过输入脉冲序列在时间尺度τ4=200秒上的移动平均来计算。短期突触抑制[34]和放电阈值适应[35]可能是皮层神经元中实现有效均值消除的可能机制。

我们实现了带有权重衰减和稳态因子的最小三元组-STDP(Spike-Timing Dependent Plasticity,脉冲时间依赖可塑性)模型[25],其中突触变化遵循以下规律:






https://journals.plos.org/ploscompbiol/article?id=10.1371/journal.pcbi.1011844

CreateAMind
ALLinCreateAMind.AGI.top , 前沿AGI技术探索,论文跟进,复现验证,落地实验。 鼓励新思想的探讨及验证等。 探索比大模型更优的智能模型。
 最新文章