点击关注,快速拿捏更多计算机SCI/CCF发文资讯~
01会议介绍
Turing Academy
ACL 2025(Annual Meeting of the Association for Computational Linguistics)是自然语言处理与计算语言学领域的顶级国际学术会议,聚焦于NLP的前沿研究和技术进展。由ACL协会主办,每年都吸引全球学者、研究人员和行业专家,共同探讨自然语言处理和相关领域的最新成果。
从事自然语言处理、机器翻译、文本生成、信息抽取、情感分析等领域的研究者可以密切关注ACL 2025。距离投稿截止日期还有一段时间,建议有意向投稿的研究人员提前规划研究方向,尽早开展论文写作。
02重要信息
Turing Academy
CCF分级:CCF-A
Core分类: A类
录取率:23.5% (910/3872 23')
官网地址:https://2025.aclweb.org/
论文提交截止日期:2025年2月16日
审稿及反馈给作者:2025年4月15日
提交修改截止日期:2025年4月20日
录用通知:2025年5月15日
撤稿截止日期:2025年5月30日
最终版提交截止日期:2025年5月30日
主会议时间:2025年7月28日至30日
研讨会时间:2025年7月31日至8月1日
03 研究主题
Turing Academy
包括但不限于:
1. 语言模型与生成
2. 机器翻译
3. 信息抽取与知识图谱
4. 文本分类与情感分析
5. 问答系统
6. 对话系统与对话管理
7. 语音与文本结合的多模态处理
8.低资源语言处理
9. 语法与句法分析
04 推荐阅读
Turing Academy
岛主为大家准备了一篇ACL 2024的最佳论文,推荐给同学们参考。
论文简介:
乔姆斯基和其他人明确声称,大型语言模型(LLM)在学习人类可以学会的和不能学会的语言方面同样出色。然而,几乎没有发表的实验证据支持这一观点。本文开发了一组具有不同复杂度的合成“不可能语言”,通过系统性地改变英语数据的单词顺序和语法规则来实现。这些语言形成了一个不可能性连续体:一端是固有不可能的语言(如随机且不可逆的单词打乱),另一端是直观上可能但在语言学上通常认为不可能的语言,尤其是基于单词位置计数规则的语言。我们进行了广泛的评估,以测试GPT-2小模型学习这些“无争议不可能语言”的能力,且在训练的各阶段评估了学习过程。核心发现是,GPT-2在与英语对比时难以学习这些不可能语言,挑战了核心观点。更重要的是,我们希望这种方法能开启新的研究方向,通过测试不同LLM架构学习不可能语言,进一步了解LLM如何用作认知与类型学研究工具。
需要更多信息可以后台戳戳岛主哦~
听说点击“在看”的宝子们已经拿到ACCEPT啦!⬇️