近日,ACL 2024系统演示赛道(System Demonstration Track,简称 SDT)论文录用结果公布,THUNLP 2 篇论文被 ACL 2024 Demo 录用。
此前,我组已有 17 篇成果被 ACL 主会议接收,6 篇成果被 “Findings of ACL” 接收,共计25篇论文收录于 ACL 2024。点击往期推送查看我组 ACL2024 收录论文列表:新闻|我组多篇论文成果被 ACL 2024 收录
ACL 年会是计算语言学和自然语言处理领域的国际排名第一的顶级学术会议,由国际计算语言学协会组织,每年召开一次,在中国计算机学会(CCF)推荐会议列表中被列为 A 类会议。在ACL 2024年的系统演示赛道上,作者将有机会在会议期间的专门演示环节通过现场演示和海报,向与会者展示他们的系统,被选中的演示作品将收录在会议论文集(Conference proceeding)中。
我组录用论文信息
LEGENT: Open Platform for Embodied Agents
当前,大语言模型和多模态大模型在理解和生成语言、图像等方面展现出令人瞩目的能力。然而,如何将多模态大模型应用于具身智能体,使其能够在物理世界中进行感知、推理和行动,仍然面临着巨大的挑战。大模型难以与现有平台整合,模型缺乏物理交互训练以及数据规模不足等问题,都阻碍了 LLM 和 LMM 在具身智能体领域的应用。近日,我组提出了LEGENT具身智能体开放平台。该平台提供了一个功能强大的 3D 模拟环境,构建了一套高效的具身数据生成流程,为大语言模型和多模态大模型与具身智能体的结合搭建了一座桥梁,为具身智能的发展提供了新的思路和方向。
作者: 程志立,王治同,胡锦毅,胡声鼎,刘安,涂宇鸽,李鹏凯,时磊,刘知远,孙茂松
➤ 论文链接
📑 https://arxiv.org/pdf/2404.18243
UltraEval: A Lightweight Platform for Flexible and Comprehensive Evaluation for LLMs
评估对于完善大型语言模型 (LLM)、确定其能力和指导改进至关重要。LLM 的快速发展需要一个轻量级且易于使用的框架,以便迅速部署评估流程。然而,由于需要考虑各种实现细节,开发一个全面的评估平台绝非易事。现有的平台通常比较复杂,模块化程度低,妨碍了研究人员工作流程的无缝整合。UltraEval 是一个用户友好型评估框架,具有轻量级、全面性、模块化和高效率的特点。我们确定并重新实现了模型评估的三个核心组成部分(模型、数据和指标)。由此产生的可组合性允许在统一的评估工作流程中自由组合不同的模型、任务、提示和指标。此外,UltraEval 还通过统一的 HTTP 服务支持各种模型,并提供充分的推理加速。
作者: 贺超群,罗人杰,胡声鼎,赵元乾,周界,吴航昊,张佳杰,韩旭,刘知远,孙茂松
合作方: 北京航空航天大学、中国人民大学、面壁智能、东北大学
➤ 论文链接
📑 https://arxiv.org/pdf/2404.07584
➤ Demo演示视频
关于我们
清华大学自然语言处理与社会人文计算实验室(TsinghuaNLP)成立于 20 世纪七十年代末,是国内开展自然语言处理研究最早、深具影响力的科研单位,也是中国中文信息学会计算语言学专业委员会及中国人工智能学会因果与不确定性人工智能专业委员会的挂靠单位。实验室在学术总体带头人孙茂松教授及学术方向带头人刘洋教授、刘知远副教授的带领下,围绕以中文为核心的自然语言处理,在语言大模型、跨模态大模型、中文信息处理、机器翻译、知识图谱、智慧教育、社会人文和艺术计算等方面开展系统深入的研究,在国内外具有较大的学术影响。近年来,实验室承担了国家 973 项目、国家重点研发项目、国家社会科学基金重大项目等多项重要研究任务,并与腾讯、华为、搜狗等企业建立密切的学术合作关系。
Website:http://nlp.csai.tsinghua.edu.cn/
Email:thunlp@163.com
GitHub:https://github.com/thunlp
https://github.com/OpenBMB
Twitter:https://twitter.com/TsinghuaNLP
THUNLP 长期开放招聘