揭秘大模型中的神经网络,从ANs到类脑功能组织

文摘   2024-11-04 08:01   美国  

人工智能技术近年来取得了长足的进步,尤其是在深度学习和大数据驱动的模型方面,显示出了巨大的潜力和应用价值。虽然现代人工智能系统在任务执行上的表现不断提升,真正能够媲美人类智能的系统仍然稀缺。人类大脑以其卓越的感知、认知、推理和创造能力,被认为是生物智能的巅峰。因此理解这些认知能力背后的机制,并借鉴这些机制来构建人工智能系统,成为当前人工智能研究的一个重要方向。

近年来,人工神经网络(ANNs)在视觉识别、语言处理和推理等领域展现出突破性的能力。这些网络通过从海量数据中学习复杂模式,点燃了人们对于机器可能在未来复制甚至超越人类认知能力的希望。然而尽管在某些领域取得了显著进展,现有研究主要集中在神经网络群体水平的行为上,而缺乏对个体人工神经元(ANs)功能组织的深入研究。理解这些复杂系统如何在个体层面上实现类脑的信息处理,是推动人工智能进一步发展的关键。

11 月 1 日,arXiv发表的热门论文《BRAIN-LIKE FUNCTIONAL ORGANIZATION WITHIN LARGE LANGUAGE MODELS》研究目标是探索大模型中的类脑功能组织,通过耦合人工神经元小组与人脑的功能性脑网络(FBNs),揭示这些模型如何在微观层面上模仿大脑的功能架构。具体而言,研究提取LLMs中ANs的代表性时间响应模式,利用这些模式作为固定回归量,构建体素编码模型预测功能性磁共振成像(fMRI)记录的大脑活动。这一框架不仅能够揭示AN小组与FBNs之间的关系,还能描述LLMs中的类脑功能组织。

研究团队汇集了来自不同领域的专家,包括西北工业大学自动化学院的Haiyang Sun, Xiaohui Gao, Yutao Hu, Mengfei Zuo,Junwei Han,Xintao Hu,以及佐治亚大学计算机学院的Lin Zhao, Zihao Wu,Tianming Liu和奥古斯塔大学计算机与网络科学学院的Wei Zhang。该团队跨越多所知名学府,融合了各自的专业知识,旨在通过深入的跨学科合作,推进人工智能系统的发展,特别是在借鉴人脑功能原理方面的研究。这项研究不仅代表了人工智能领域的前沿探索,也为未来的人工通用智能(AGI)发展提供了新的见解和思路。

相关研究

在现代人工智能的研究领域中,计算语言模型(LLMs)的神经编码扮演着至关重要的角色。神经编码研究旨在揭示计算语言模型在处理语言时,其内部神经元(人工神经元,ANs)是如何与人类大脑中的神经活动相对应的。

计算语言模型的神经编码

神经编码研究已经表明,基于深度神经网络的计算语言模型在其内部表现出了与人脑神经活动显著的表示对齐。这意味着,尽管这些模型是通过完全不同的机制运行,它们处理外部刺激的方式却在某种程度上与人脑相似。例如,研究人员通过线性编码模型,将计算语言模型的表示与由相同刺激引发的人脑神经反应进行映射。这些模型利用语言模型的层级嵌入,预测神经活动,从而揭示了ANs在处理语言信息时的群体行为。

尽管这些研究取得了显著的进展,它们主要集中在ANs的群体行为上,而忽略了个体ANs的功能组织。这意味着研究团队对这些模型的理解仍然停留在表面,而对其内部复杂机制缺乏深入的认识。此外,现有研究大多采用线性编码模型,尽管这种方法在一定程度上解释了神经活动,但它在刻画个体ANs的功能组织方面存在局限性。这些研究仅能提供一个宏观的视角,缺乏对微观机制的详细探讨。

人工神经元的行为解释

为了深入理解个体ANs在计算语言模型中的行为,研究者们开发了多种策略。这些策略包括特征归因、探查、神经元激活分析、注意力可视化、对抗样例和反向识别等。例如,通过特征归因,研究者可以确定哪些输入特征对模型输出最为重要;通过神经元激活分析,可以了解某个神经元在特定输入下的激活模式;通过对抗样例,可以测试模型在面对异常输入时的反应。

然而,这些策略虽然提供了对个体ANs行为的宝贵见解,但它们主要集中在解释模型的外在表现上,而对其内部功能组织研究较少。尽管这些策略揭示了个体ANs在处理信息时的行为模式,但它们未能全面揭示ANs与人脑神经活动的对应关系。此外,当前大多数研究关注于模型的整体性能,而忽略了模型在微观层面上的组织结构。这种局限性使得研究团队对这些模型的内部机制仍然知之甚少。

尽管现有研究在揭示计算语言模型与人脑神经活动的对应关系方面取得了重要进展,但对个体人工神经元的功能组织理解仍然不足。这不仅限制了研究团队对这些模型工作原理的全面认识,也阻碍了基于这些原理开发更先进人工智能系统的进程。因此,探索大型语言模型中的类脑功能组织,揭示其内部复杂机制,对于推动人工智能技术的发展具有重要意义。这也是研究团队的核心目标所在。

研究方法

在这项研究中,研究团队通过一系列精确的方法,揭示了大型语言模型(LLMs)中的类脑功能组织。

研究采用了一个系统的框架,以探索LLMs中的类脑功能组织。首先研究团队定义了人工神经元(ANs)并量化其对外部刺激的时间响应。然后通过稀疏表示方案从ANs的时间响应中学习代表性模式。研究团队使用这些模式构建体素编码模型,以预测功能性磁共振成像(fMRI)记录的大脑活动。研究团队推断ANs与功能性脑网络(FBNs)之间的关系,并分析大脑网络的参与度。

图1:研究概述。研究团队从LLM(a)中AN的时间反应中学习代表性模式DAN(b),并使用DAN作为回归器来重建fMRI记录的fMRI脑活动(c)。DAN中的原子选择性地激活特定的大脑区域/网络。

人工神经元与时间响应

在本研究中,ANs是LLMs中的基本计算单元。研究团队选择了四种LLMs,分别是BERT模型和Llama家族中的三个进化模型(Llama 1-3)。通过定义ANs的时间响应,研究团队能够量化每个AN在接收到一系列输入刺激后所表现出的激活模式。

时间响应模式的同步与处理是一个关键步骤。研究团队使用“叙述”fMRI数据集,将文本输入与相应的fMRI时间线对齐。这确保了ANs的时间响应与fMRI记录的脑活动同步,为后续的分析提供了基础。

稀疏表示与字典学习

由于每个LLM包含成千上万个ANs,直接分析个体响应是不切实际的。因此,研究团队采用了稀疏表示方案,以提取ANs的代表性时间响应模式。通过学习一个代表性模式的字典(DAN),研究团队能够将整个ANs的时间响应表示为这些模式的组合,从而简化了分析过程。

给定时间响应集合X∈R t×n,其中n是AN的总数,t是时间响应的长度,目标是在字典DAN∈R t×k上找到稀疏表示AAN∈R k×n,在对AAN施加稀疏约束的同时最小化重建误差:

具体来说,研究团队定义了一个目标函数,以最小化重建误差,同时对表示系数施加稀疏约束。这确保了每个时间响应仅由少数关键模式描述,实现了高效的字典学习。

体素编码模型

体素编码模型用于建立ANs与脑活动之间的关系。这些模型基于一个类似于字典学习的方案,不同之处在于研究团队固定字典DAN,以学习一个稀疏表示来重建fMRI脑活动。每个原子的编码系数揭示了其与整个大脑功能活动的耦合关系。

通过分析这些编码系数,研究团队能够构建大脑图谱,展示ANs在不同脑区的功能组织。这些图谱不仅展示了ANs的激活模式,还揭示了它们与特定大脑网络的功能联系。

关系推断

推断ANs与FBNs的关系是研究的核心。通过将每个AN与其最大响应的DAN原子对应,研究团队能够确定ANs在不同脑区的功能角色。研究团队利用一个大脑网络对应工具,自动识别大脑图谱中涉及的功能性脑网络。

大脑网络参与度分析进一步揭示了不同FBNs在脑图中的功能交互与竞争。研究团队观察到,某些FBNs在大脑图谱中的参与度显著高于其他网络,这表明它们在LLMs中的类脑功能组织中扮演着关键角色。

实现细节

为了验证研究框架的有效性,研究团队使用了“叙述”fMRI数据集,该数据集包含人类受试者在听故事时的fMRI数据。研究团队选择了空间分辨率高、样本数量足够的版本,并使用预训练的BERT和Llama家族模型进行实验。

在参数设置方面,研究团队将字典大小设置为64,并对稀疏重构过程中的正则化参数进行了调整,以确保重构的准确性和稀疏性。这些细节的处理确保了研究结果的可靠性和可重复性。

研究结果

在这项研究中,研究团队通过一系列实验分析,揭示了大型语言模型(LLMs)中的类脑功能组织。以下是主要的发现和分析结果。

稀疏表示与大脑活动

图2:AN时间响应的稀疏表示(a)和使用DAN的fMRI活动的稀疏重建(b)中的R2值。(c-f):分别在皮质表面显示BERT和Llama家族中R2 s的空间分布

首先,研究团队通过稀疏表示方案,从ANs的时间响应中学习了一组代表性模式(DAN),并将其应用于体素编码模型中,以预测fMRI记录的大脑活动。研究团队比较了不同模型的R²值,以评估这些代表性模式对大脑活动的解释能力。

在比较中发现,BERT模型的R²值较高(0.6005±0.1127),而Llama家族模型的R²值相对较低但相差不大(分别为0.5021±0.1119,0.5005±0.1114和0.5032±0.1139)。这种差异可能是由于BERT模型中的AN数量较少,导致时间响应模式的多样性较低,从而提高了字典学习的性能。

进一步分析显示,在四种LLMs中,稀疏重构fMRI脑活动的R²值分布表明,Llama家族模型与大脑活动的相关性更高,这与它们在自然语言任务中的表现相一致。此外,各模型在大脑功能区的编码表现高度一致,特别是在上颞叶、中颞叶、侧枕叶、内枕叶、角回、前扣带回和后扣带回、颞顶交界区及广泛的额叶区域,这些区域的编码表现尤为突出。

图3:(a)与Llama3中的原子#9和原子#17相对应的两个示例脑图。(b) 9号原子的自动大脑网络标记,说明语言、显著性A和显著性b网络的激活,以及侧视觉(LatVis)皮层的失活。

大脑图谱分析

通过分析大脑图谱,研究揭示了复杂的功能交互与竞争,特别是在已建立的功能性脑网络(FBNs)之间。大脑图谱的功能交互模式展示了人工神经元(ANs)在不同脑区的激活和抑制关系,反映了LLMs中类脑功能组织的特点。

大脑图谱分析还显示,不同模型的大脑网络参与度存在显著差异。某些FBNs,如侧视觉皮层(LatVis)、语言网络、默认模式网络(DMN)、工作记忆网络(WM)、初级听觉皮层、显著性网络和背侧注意网络(DAN),在大脑图谱中更频繁地出现,既包括激活也包括抑制的情况。相反,内视觉皮层(MedVis)、顶叶记忆皮层(ParMemory)、感觉运动网络(SMN)和边缘网络的参与度则相对较低。

图4:(a)与不同FBN相关的脑图数量。(b) 与不同数量的FBN相关的大脑图谱的分布。

通过大脑图谱,研究团队观察到神经语言处理过程中功能专门化区域和领域通用脑网络的参与,如初级听觉皮层、视觉皮层、语言网络和前额顶网络(FPN)。更重要的是,研究强调了默认模式网络(DMN)、工作记忆网络和背侧注意网络在这一过程中扮演的重要角色,表明这些网络在整合外部信息和内部信息方面具有关键作用。

类脑功能组织的演变

研究还探讨了LLMs中类脑功能组织的演变过程。通过分析四种模型中的FBN成分,研究团队观察到更先进的LLMs展示出更紧凑的类脑功能组织模式。特别是Llama3中的ANs分布模式更为一致,表现出更分层的功能组织。

图5:大脑图谱中涉及的详细FBN组件。颜色编码表示从FBN标记中获得的Dice系数,该系数测量了大脑图谱和FBN之间的空间重叠。这里的负Dice值表示给定脑图中FBN的失活。支架用于突出显示具有相同FBN标签的大脑图谱。

在Llama3中,研究发现ANs在更深层次中集中,这与其在捕捉复杂语言和认知过程中的潜力相吻合。随着模型能力的提升,LLMs中的类脑功能组织在计算行为多样性和功能专门化一致性之间实现了更好的平衡。这一发现表明,ANs在更先进的模型中组织得更加紧密,以提高语言任务的表现。

图6:揭示四个LLM中LatVis(激活)和语言网络(失活)之间功能相互作用的原子子集。(a-d)分别用于BERT、Llama1、Llama2和Llama3,显示了脑图(第1列)、原子对时间响应之间的Pearson相关系数(第2列)以及AN在LLM层上的分布模式(第3列,x轴为层索引)。(e) 原子的时间一致性。(f) LLM层上AN分布模式的一致性。

功能交互的时空一致性分析显示,Llama3中的功能组织模式与其他模型相比更为一致,表明其在处理复杂语言任务时能够更高效地整合和利用代表性模式。这为理解LLMs中的类脑功能组织提供了新的视角,也为未来的人工通用智能(AGI)系统的发展提供了重要的参考。

图7:(a-b)Llama3中的两个原子具有相反的大脑活动模式和层上AN的分布。(c-d)两个原子具有相反的大脑活动模式,但AN在层上的分布相似。“+”和“-”分别表示激活和停用。

讨论与结论

这项研究首次揭示了大型语言模型(LLMs)中的类脑功能组织,填补了人工智能领域中一个重要的研究空白。通过构建神经编码模型,该研究探讨了人工神经元(ANs)与人类大脑功能性脑网络(FBNs)之间的耦合关系。研究发现,LLMs中的ANs不仅在群体层面上表现出与人脑神经活动的显著对齐,还在个体层面上展示了复杂而精细的功能组织。这一发现对于推动人工通用智能(AGI)的发展具有重要启示。通过借鉴人脑的功能架构,未来的AGI系统可能更接近人类智能的复杂性和灵活性,从而在多种任务中表现出更优异的性能。

然而本研究也存在一些局限性。研究团队在字典学习中固定了字典大小(64),尽管不同LLMs中的ANs数量存在显著差异。针对每个模型确定特定的字典大小,可能会更准确地描述其类脑功能组织。其次,研究仅考察了有限数量的原子,其他原子所描述的耦合关系仍然未被完全揭示,这可能包含关于人脑神经语言处理的宝贵线索。此外,实验数据仅限于一次fMRI实验。为了验证和评估这一框架,需要在更大规模的fMRI数据集上进行进一步研究。最后,将该框架应用于其他模态的基础模型,可能会提供更多关于现代人工通用智能模型中的类脑功能组织的证据。

未来的研究可以从几个方面展开。将框架应用于不同模态的基础模型,例如视觉或听觉模型,这可以揭示更多关于类脑功能组织的细节。其次,深入探索ANs与FBNs的关联,通过更大规模的数据和更复杂的模型,进一步理解LLMs中的类脑信息处理机制。最后,研究应考虑在更大规模的fMRI数据集上验证这些发现,以确保其广泛适用性和稳健性。

总之,本研究通过构建神经编码模型,揭示了大型语言模型中的类脑功能组织,展示了这些模型在支持复杂语言任务中的独特功能模式。研究表明,随着模型复杂性和能力的提升,LLMs中的类脑功能组织在计算行为多样性和功能专门化一致性之间实现了更好的平衡。这一发现不仅为理解人工神经网络与人类大脑功能组织之间的关系提供了新视角,也为未来人工通用智能系统的发展奠定了重要基础。未来的研究将继续探索这些领域,进一步推进人工智能技术的发展,使其在更多任务中接近乃至超越人类智能的表现。(END)

参考资料:https://arxiv.org/pdf/2410.19542

波动世界(PoppleWorld)是噬元兽数字容器的一款AI应用,是由AI技术驱动的帮助用户进行情绪管理的工具和传递情绪价值的社交产品,基于意识科学和情绪价值的理论基础。波动世界将人的意识和情绪作为研究和应用的对象,探索人的意识机制和特征,培养人的意识技能和习惯,满足人的意识体验和意义,提高人的自我意识、自我管理、自我调节、自我表达和自我实现的能力,让人获得真正的自由快乐和内在的力量。波动世界将建立一个指导我们的情绪和反应的价值体系。这是一款针对普通人的基于人类认知和行为模式的情感管理Dapp应用程序。

加入AI交流群请扫码加微信

大噬元兽
噬元兽FlerkenS 是一个去中心化的AI数字价值容器,捕捉数字时代新型资产,用数据飞轮把你的数据和内容转化成为你的财富,带你走进下一个智能互联网。
 最新文章