邀请参与首届XLLM Workshop @ ACL 2025

教育   2025-01-12 15:42   江苏  

第一届大语言模型与语言结构建模 Workshop (XLLM 2025) 将会依托 ACL 2025,于奥地利维也纳,25年7月31日至8月1日开展。

欢迎论文投稿参与公开挑战任务

了解更多信息,请访问XLLM Workshop官网: https://xllms.github.io/

您是否对自然语言处理(NLP)中的基于大语言模型(LLM)的语言结构预测或建模(如句法/语义、信息抽取和结构化情感计算等任务)充满兴趣?本workshop的目标是回答两个问题:

  1. 在LLM时代,NLP的语言结构建模是否仍然值得探索?
  2. LLM之前的重要语言结构建模方法和任务是否仍然有价值?

欢迎加入我们参加 XLLM 2025,这是一场首个关于LLM和语言结构建模Workshop,深入探讨语言结构化NLP和LLM的各种方法和应用。我们邀请征稿,并邀请参与公开挑战任务。

Workshop简介

语言结构建模长期以来一直是NLP的一个重要分支领域,涉及理解语言的语义或句法结构。语言结构可以大致分为底层的形态/句法类型(例如依存结构和短语成分结构)和高层的语篇/语义结构(例如语义解析、语义角色标注、抽象意义表示),甚至可扩展到更广泛意义上的 NLP 应用、多语言和多模态场景,例如文本到SQL生成、表格解析、信息抽取和结构化情感分析等。在过去,关于语言结构的建模、推理和学习构成了许多 NLP 系统不可或缺的部分,也是大量NLP研究工作中的重点。

自十多年前深度学习革命开始以来,与语言结构建模相关的方法和范式发生了巨大变化。直到在过去两三年中,LLM的出现让本课题发生了又一次的变革。LLMs在有效解决各种任务方面表现出了前所未有的语言理解和泛化能力。这引发了一个关键问题:在 LLM 时代,NLP的语言结构建模是否仍然值得探索?在 LLM 之前的方法和任务是否仍然有价值?

一方面,我们想探讨以前的 NLP语言结构建模任务,例如关于形态/句法/语义/语篇结构和高级结构感知应用的任务,是否可以借助 LLM 的强大能力实现更高的任务性能。

另一方面,我们也在考虑是否仍有必要建模语言的底层结构,因为单纯依赖表面形式的大规模预训练已经赋予LLM非凡的语言能力。特别是,语言结构建模是否有助于改进或理解LLM?

因此,首届XLLM Workshop将于ACL 2025举行,旨在鼓励讨论并强调在LLM时代的语言结构建模方法。具体讲,我们将探索两个主要方向:LLM用于语言结构建模 (LLM4X) 和语言结构建模用于LLM (X4LLM)。

论文征稿主题

A. LLM用于语言结构建模 (LLM4X):

  • 底层句法解析及方法 (Low-level Syntactic Parsing and Methods)
    • 形态解析 (Morphological Parsing)
    • 依存解析/成分解析 (Dependency Parsing/Constituency Parsing)
    • 低资源/跨语言句法解析 (Low-resource/Cross-lingual Syntactic Parsing)
    • 驱动短语结构语法解析 (Head-driven Phrase Structure Grammar Parsing)
    • 无监督语法归纳 (Unsupervised Grammar Induction)
    • 跨模态解析/视觉-语言语法归纳 (Cross-modal Parsing/Vision-Language Grammar Induction)
  • 高层语义解析及方法 (High-level Semantic Parsing and Methods)
    • 语义依存解析 (Semantic Dependency Parsing)
    • 框架解析 (Frame Parsing)
    • 语义角色标注 (Semantic Role Labeling)
    • 抽象意义表示 (Abstract Meaning Representation)
    • 统一意义表示 (Uniform Meaning Representation)
    • 通用分解语义解析 (Universal Decompositional Semantic Parsing)
    • 通用概念认知标注 (Universal Conceptual Cognitive Annotation)
    • 修辞结构理论解析 (Rhetorical Structure Theory (RST) Parsing)
    • 会话语篇解析 (Conversation Discourse Parsing)
    • 低资源/跨语言语义解析 (Low-resource/Cross-lingual Semantic Parsing)
  • 更广泛的结构化应用及方法 (Broader Structure-aware Applications and Methods)
    • 信息提取 (IE): 命名实体识别 (NER), 关系抽取 (RE), 事件抽取 (EE)
    • 结构化情感分析 (Structured Sentiment Analysis, SSA), 基于方面的情感分析 (Aspect-based Sentiment Analysis, ABSA)
    • 低资源/跨语言 IE/SSA/ABSA (Low-resource/Cross-lingual IE/SSA/ABSA)
    • 跨模态 IE/SSA/ABSA (Cross-modal IE/SSA/ABSA)
    • 文本到 SQL (Text-to-SQL)
    • 表格解析 (Table Parsing)
    • 文档解析 (Document Parsing)
    • 通用结构解析/建模 (Universal Structure Parsing/Modeling)
    • 以人为中心的 LLM 解析 (Human-centered Parsing with LLM)
    • 基于 LLM 解析的鲁棒性分析 (Robustness Analysis of LLM-based Parsing)

B. 语言结构建模用于LLM (X4LLM):

  • 关于 LLM 中语言结构有用性的语言学/数学论点
  • 关于 LLM 中语言结构有用性的实证研究
  • 将语言结构集成到 LLM 架构中
  • 将语言结构作为 LLM 中的附加输入或输出
  • 将语言结构训练信号纳入 LLM 的预训练和后训练中
  • 基于语言规则和结构信息提示 LLM
  • 从语言结构视角对 LLM 进行分析和解释

我们欢迎两种类型的论文:常规论文和非存档扩展摘要(即正在开展的工作或已在其他地方发表/被接受的工作)。我们还设立了最佳论文奖。除了直接提交到Workshop的论文进行常规审稿外,我们还接受通过 ACL ARR 提交到工作坊的论文。详情请访问Workshop官网。

公开挑战任务

我们设置了四项公开任务挑战。参与者可以访问各任务页面了解具体的参与要求。排名前列的团队将在部分公开任务上获得现金奖励。获胜者需提交一篇技术论文,详细描述所使用的技术和实验结果。更多详情请参阅任务官网:https://xllms.github.io/

  • 任务-I: 对话级依存解析 (DiaDP)
    DiaDP 旨在为对话上下文构建一个统一的词级依存树。该树同时整合了单元内部的依存关系(Elementary Discourse Units, EDUs)和单元间的依存关系(跨 EDUs),以表示对话中词之间的句法和语篇关系。给定由多个句子组成的对话,这些句子被分割为 EDUs,其中每个句子被视为句子单元,DiaDP 输出一个包含以下内容的结构化依存树:
    1)EDU 内的依存关系:单个 EDU 内的句法关系;
    2)EDU 间的依存关系:连接不同 EDU 的语篇关系,包括跨语句的链接。我们分别设置零样本和少样本学习情景。

  • 任务-II: 语音事件抽取 (SpeechEE)
    SpeechEE 旨在直接从语音音频中检测事件谓词和参数,从而实现从会议、访谈和新闻发布等语音内容中获取信息。SpeechEE 定义为:给定由一系列声学帧组成的语音音频输入,其目标是提取包含以下四个要素的结构化事件记录:
    1)事件类型;
    2)事件触发词;
    3)事件论元角色;
    4)相应的事件论元。

  • 任务-III: 基于 LLM 的结构推理 (LLM-SR)
    LLM-SR 旨在通过利用结构推理生成可控且可解释的推理过程。LLM-SR 需要对两种不同的组件进行结构化解析:主要前提和次要前提,然后涉及识别这两种结构之间的细粒度“对齐关系”,最终得出结论。此任务可视为一种受约束的连贯思维(CoT)推理过程,其中推理是参考事实和相关规则逐步进行的,从而提高了过程的透明性和可靠性。

  • 任务-IV: 文档级信息提取 (DocIE)
    DocIE 聚焦于从长文档中提取信息,而不是孤立的句子,这需要整合文档内和多个句子之间的信息,同时捕捉复杂的交互关系。给定一个文档和一个预定义的架构,DocIE 需要提取与架构元素相对应的每个实例(可能为空)。此过程包括识别:
    1)实体类型;
    2)提及的共指关系;
    3)关系类型;
    4)每个已识别关系的头实体和尾实体。

重要日期

A. Workshop时间表:

  • 直接提交到工作坊的论文截止日期:2025 年 3 月 18 日
  • 通过 ARR 预审查提交到工作坊的论文截止日期:2025 年 3 月 25 日
  • 所有论文的接收通知:2025 年 4 月 30 日
  • 论文定稿截止日期:2025 年 5 月 16 日
  • Camera Ready提交(硬性截止日期):2025 年 7 月 7 日
  • Workshop日期(待定):2025 年 7 月 31 日至 8 月 1 日

B. 公开挑战任务时间表:

  • 所有公开挑战任务的训练数据和参与说明发布:2025 年 2 月 10 日
  • 所有公开挑战任务的评估截止日期:2025 年 3 月 30 日
  • 所有共享任务的通知:2025 年 4 月 5 日
  • 优胜队伍技术论文提交截止日期:2025 年 4 月 12 日
  • 所有论文的接收通知:2025 年 4 月 30 日

所有截止日期均为 AoE 时间。

联系方式

如果您对Workshop有任何疑问,请发送电子邮件至 xllm2025@googlegroups.com

深度学习自然语言处理
一个热衷于深度学习与NLP前沿技术的平台,期待在知识的殿堂与你相遇~
 最新文章