近日,第62届国际计算语言学年会(Annual Meeting of the Association for Computational Linguistics,简称 ACL)公布ACL 2024的论文录用消息。我组共 23 篇论文被 ACL 2024 录用,其中 17 篇论文被 ACL 主会录用,6 篇被 “Findings of ACL” 录用。
ACL 年会是计算语言学和自然语言处理领域的国际排名第一的顶级学术会议,由国际计算语言学协会组织,每年召开一次,在中国计算机学会(CCF)推荐会议列表中被列为 A 类会议。2024年是第62届会议,将于2024年8月11日至8月16日在泰国曼谷举行。
我组论文收录简报
THUNLP 此次 23 篇论文被 ACL 2024 接收,其中 17 篇为主会议接收,6 篇为 “Findings of ACL” 接收。以下排名不分先后。
➤ 主会录用论文
Tell Me More! Towards Implicit User Intention Understanding of Language Model Driven Agents
作者: 钱成,何秉翔,庄众,邓佳,秦禹嘉,从鑫,张众,周杰,林衍凯,刘知远,孙茂松
合作方:中国人民大学,腾讯
链接:https://arxiv.org/pdf/2402.09205
Cleaner Pretraining Corpus Curation with Neural Web Scraping
作者: 徐志鹏,刘正皓,闫宇坤,刘知远,于戈,熊辰炎
合作方:东北大学,卡内基梅隆大学
链接:https://arxiv.org/pdf/2402.14652
MARVEL: Unlocking the Multi-Modal Capability of Dense Retrieval via Visual Module Plugin
作者: 周天硕,梅森,李欣泽,刘正皓,熊辰炎,刘知远,谷峪,于戈
合作方: 东北大学,卡内基梅隆大学
链接:https://arxiv.org/pdf/2310.14037
OlympiadBench: A Challenging Benchmark for Promoting AGI with Olympiad-Level Bilingual Multimodal Scientific Problems
作者: 贺超群,罗人杰,白钰卓,胡声鼎,戴振宁,申君皓,胡锦毅,韩旭,黄雨婕,张裕翔,刘杰,祁磊,刘知远,孙茂松
合作方:曲一线智能出版中心
链接:https://arxiv.org/pdf/2402.14008
MAVEN-ARG: Completing the Puzzle of All-in-One Event Understanding Dataset with Event Argument Annotation
作者: 王晓智,彭皓,关勇,曾开胜,陈健晖,侯磊,韩旭,林衍凯,刘知远,谢若冰,周杰,李涓子
合作方:李涓子老师团队,人民大学,腾讯
链接:https://arxiv.org/pdf/2311.09105
ChatDev: Communicative Agents for Software Development
作者: 钱忱,刘维,刘鸿樟,陈诺,党余凡,李嘉豪,杨成,陈玮泽,苏裕胜,从鑫,许聚缘,李大海,刘知远,孙茂松
合作方:悉尼大学,上海交通大学,大连理工大学,北京邮电大学,布朗大学,面壁智能
链接:https://arxiv.org/pdf/2307.07924
Experiential Co-Learning of Software-Developing Agents
作者: 钱忱,党余凡,李嘉豪,刘维,谢子昊,王一飞,陈玮泽,杨成,从鑫,车效音,刘知远,孙茂松
合作方:大连理工大学,北京邮电大学,西门子
链接:https://arxiv.org/pdf/2312.17025
∞BENCH: Extending Long Context Evaluation Beyond 100K Tokens
作者: 张新荣,陈英发,胡声鼎,徐子航,陈俊豪,巫启豪,韩旭,戴振宁,王硕,刘知远,孙茂松
链接:https://arxiv.org/pdf/2402.13718
UltraLink: An Open-Source Knowledge-Enhanced Multilingual Supervised Fine-tuning Dataset
作者: 王昊钰,王硕,闫宇坤,王旭佳,杨致宇,徐玉庄,刘正皓,杨麟儿,丁宁,韩旭,刘知远,孙茂松
合作方:北京邮电大学,北京语言大学,东北大学
链接:https://arxiv.org/pdf/2402.04588
LoRA-Flow: Dynamic LoRA Fusion for Large Language Models in Generative Tasks
作者: 汪汉卿,平博文,王硕,韩旭,陈云,刘知远,孙茂松
合作方:上海财经大学,北京大学
链接:https://arxiv.org/pdf/2402.11455
CODIS: Benchmarking Context-dependent Visual Comprehension for Multimodal Large Language Models
作者: 罗富文,陈驰,万子豪,康兆璐,严琦栋,李英杰,王晓龙,王思雨,王梓玥,弭晓月,李鹏,马宁,孙茂松,刘洋
合作方:清华大学智能产业研究院(AIR),西北民族大学,吉林大学,中科院计算所
链接:https://arxiv.org/pdf/2402.13607
Model Composition for Multimodal Large Language Models
作者: 陈驰,杜一阳,方政,王梓玥,罗富文,李鹏,严明,张佶,黄非,孙茂松,刘洋
合作方:清华大学智能产业研究院(AIR),阿里巴巴
链接:https://arxiv.org/pdf/2402.12750
Reasoning in Conversation: Solving Subjective Tasks through Dialogue Simulation for Large Language Models
作者: 王晓龙,王祎乐,张原驰,罗富文,李鹏,孙茂松,刘洋
合作方:清华大学智能产业研究院(AIR)
链接:https://arxiv.org/abs/2402.17226
Browse and Concentrate: Comprehending Multimodal Content via Prior-LLM Context Fusion
作者: 王梓玥,陈驰,朱奕祺,罗富文,李鹏,严明,张佶,黄非,孙茂松,刘洋
合作方:清华大学智能产业研究院(AIR),阿里巴巴
链接:https://arxiv.org/pdf/2402.12195
Enhancing Multilingual Capabilities of Large Language Models through Self-Distillation from Resource-Rich Languages
作者: 张原驰,王祎乐,刘子君,王硕, 王晓龙,李鹏,刘洋,孙茂松
合作方:清华大学智能产业研究院(AIR)
链接:https://arxiv.org/pdf/2402.15960
FastFiD: Improve Inference Efficiency of Open Domain Question Answering via Sentence Selection
作者: 黄宇飞,韩旭,孙茂松
Citation-Enhanced Generation for LLM-based Chatbot
作者: 李伟韬,李俊凯,马为之,刘洋
合作方:清华大学智能产业研究院(AIR)
链接:https://arxiv.org/abs/2402.16063
➤ Findings of ACL 录用论文
INTERVENOR: Prompting the Coding Ability of Large Language Models with the Interactive Chain of Repair
作者: 王汉彬,刘正皓,王硕,崔淦渠,丁宁,刘知远,于戈
合作方: 东北大学
链接:https://arxiv.org/pdf/2311.09868
DebugBench: Evaluating Debugging Capability of Large Language Models
作者: 田润初,叶奕宁,秦禹嘉,从鑫,林衍凯,潘寅旭,吴叶赛,惠浩添,刘伟川,刘知远,孙茂松
合作方:中国人民大学,面壁智能,西门子
链接:https://arxiv.org/pdf/2401.04621
StableToolBench: Towards Stable Large-Scale Benchmarking on Tool Learning of Large Language Models
作者: 郭至诚,程思婕,王颢,梁世豪,秦禹嘉,李鹏,刘知远,孙茂松,刘洋
合作方:清华大学智能产业研究院(AIR),谷歌,香港大学
链接:https://arxiv.org/pdf/2403.07714
MatPlotAgent: Method and Evaluation for LLM-Based Agentic Scientific Data Visualization
作者: 杨致宇,周子涵,王硕,从鑫,韩旭,闫宇坤,刘正皓,谭知行,刘鹏远,于东,刘知远,史晓东,孙茂松
合作方:北京语言大学,厦门大学,东北大学,中关村实验室
链接:https://arxiv.org/pdf/2402.11453
PANDA: Preference Adaptation for Enhancing Domain-Specific Abilities of LLMs
作者: 刘安,杨宗瀚,张真赫,胡清源,李鹏,严明,张佶,黄非,刘洋
合作方:清华大学智能产业研究院(AIR),阿里巴巴
链接:https://arxiv.org/pdf/2402.12835
Budget-Constrained Tool Learning with Planning
作者: 郑远航,李鹏,严明,张佶,黄非,刘洋
合作方:清华大学智能产业研究院(AIR),阿里巴巴
链接:https://arxiv.org/abs/2402.15960
关于我们
清华大学自然语言处理与社会人文计算实验室(TsinghuaNLP)成立于 20 世纪七十年代末,是国内开展自然语言处理研究最早、深具影响力的科研单位,也是中国中文信息学会计算语言学专业委员会及中国人工智能学会因果与不确定性人工智能专业委员会的挂靠单位。实验室在学术总体带头人孙茂松教授及学术方向带头人刘洋教授、刘知远副教授的带领下,围绕以中文为核心的自然语言处理,在语言大模型、跨模态大模型、中文信息处理、机器翻译、知识图谱、智慧教育、社会人文和艺术计算等方面开展系统深入的研究,在国内外具有较大的学术影响。近年来,实验室承担了国家 973 项目、国家重点研发项目、国家社会科学基金重大项目等多项重要研究任务,并与腾讯、华为、搜狗等企业建立密切的学术合作关系。
Website:http://nlp.csai.tsinghua.edu.cn/
Email:thunlp@163.com
GitHub:https://github.com/thunlp
https://github.com/OpenBMB
Twitter:https://twitter.com/TsinghuaNLP
THUNLP 长期开放招聘