COLING 2025
国际计算语言学委员会(ICCL)组织了2025年计算语言学国际会议(COLING 2025),会议于2025年1月19日至24日在阿联酋阿布扎比举行。COLING是中国计算机学会推荐的B类会议。该会议最早可追溯至1965年,每两年举办一届,迄今已举办31届,是自然语言处理领域最具影响力的国际性会议之一。本届会议共收到投稿2528篇,最终接收760篇,录取率为30.1%。
在大会闭幕颁奖环节,程序委员会主席宣布了经最佳论文评选委员会遴选的各项论文奖。TJUNLP实验室师生喜获最佳长论文奖(Best Long Paper Award)和杰出论文奖(Outstanding Paper Award)。
论文《Towards Understanding Multi-Task Learning (Generalization) of LLMs via Detecting and Exploring Task-Specific Neurons》荣获COLING 2025最佳长论文奖,作者包括硕士生冷永琦、实验室负责人熊德意教授(通讯作者)。
论文《Do Large Language Models Mirror Cognitive Language Processing?》荣获COLING 2025杰出论文奖,作者包括博士后任玉琪老师、博士生金任任、天津师范大学张桐瑄老师、熊德意教授(通讯作者)。
论文介绍
最佳长论文获奖论文简介
虽然大语言模型(LLMs)表现出卓越的多任务能力,但理解其背后的学习机制极具挑战。在本项工作中,我们试图从神经元的角度理解LLM多任务学习机制。具体而言,对特定任务的数据,使用梯度归因方法检测LLMs中的任务敏感神经元。大量的失活和微调实验证明了检测到的神经元与给定的任务高度相关,我们称之为任务特定神经元。利用这些确定的任务特定神经元,我们进一步深入研究了多任务学习和持续学习中的两个常见问题:泛化和灾难性遗忘。实验表明,任务特定神经元的重叠程度与任务间的泛化和特化密切相关。有趣的是,在LLMs的某些层,不同任务特定神经元的参数存在高度相似性,并且这种相似性与泛化性能高度相关。受这些发现的启发,我们提出了一种神经元级的持续微调方法,该方法在持续学习过程中仅微调当前任务特定的神经元,大量实验证明了所提出方法的有效性。我们的研究为LLMs在多任务学习中的可解释性提供了洞见。
获奖理由
杰出论文获奖论文简介
本文采用表示相似性分析(RSA)方法度量大语言模型(LLM)与大脑fMRI信号之间的对齐情况,以评估LLM在模拟认知语言处理方面的有效性。实验中选择了23个主流LLMs,研究了多种训练因素(例如预训练数据规模、模型规模、对齐训练和提示词)对LLM与大脑对齐的影响。实验结果表明,预训练数据规模和模型规模与LLM-大脑相似性呈正相关,且对齐训练可以显著提高LLM-大脑相似性。显式提示词有助于提高LLM与大脑认知语言处理的一致性,而无意义的噪声提示词可能会削弱这种对齐。此外,LLM在多种评估任务(例如MMLU、Chatbot Arena)上的表现与LLM-大脑相似性高度相关。这表明LLM-大脑相似性在评估LLM能力方面具有重要潜力。获奖理由
TJUNLP
撰文 | 任玉琪
责编 | 任玉琪
终审 | 熊德意