我组将于 6 月27日 10:30 在 FIT 楼1-515 举办讲座,普林斯顿大学计算机科学系的四年级博士生夏梦舟将作为主讲人分享题为「训练与对齐语言模型:目标与数据管理的算法进展」的学术报告,清华大学计算机科学与技术系刘知远副教授将担任主持。本次讲座对公众开放,欢迎校内外人士参加并共同探讨人工智能设计的前沿话题,校外人士请自行解决入校报备事宜。
报告时间:2024年6月27日 10:30-12:00
报告地点:清华大学 FIT 楼 1-515
演讲人:夏梦舟
普林斯顿大学计算机科学系的四年级博士生
主持人:刘知远
清华大学计算机科学与技术系副教授
讲座概述
报告题目:
训练与对齐语言模型:目标与数据管理的算法进展
报告摘要:
规模通常能为语言模型解锁新的能力,但大规模模型的开发在数据和计算方面都非常昂贵。在本次演讲中,讲者将介绍一些成本效益高的算法,这些方法能够构建高性能、高效且对齐的开源基础模型。首先,讲者将介绍一种新的剪枝和持续预训练算法,该算法可以利用现有的大型预训练模型高效地构建小型、高性能模型。这些被称为Sheared-LLaMA的模型以不到5%的成本达到了与当时最先进模型相当的性能。接着,讲者将描述一种模型和优化器感知的算法,称为LESS,该算法仅使用少量精心挑选的例子来选择指令调优数据,从而培养模型的特定能力。LESS通过将数据选择形式化为一个优化问题,避免了依赖数据表面形式,目标是选择能够减少目标(如验证)数据集损失的数据。实验表明,仅使用LESS选择的5%数据进行训练就能超越在全数据集上训练的效果,并且所选数据通常可以在不同模型规模和系列之间传递。最后,讲者将介绍一种简单而有效的模型对齐算法SimPO,该算法利用基于模型响应平均可能性的无参考奖励公式。大量实验表明,SimPO在各种设置中均优于现有的离线偏好优化方法,如DPO,在响应排序准确性方面表现更佳。
演讲人简介
/ 主讲人 夏梦舟 /
普林斯顿大学计算机科学系的四年级博士生
夏梦舟,普林斯顿大学计算机科学系的四年级博士生,其导师为陈丹琦教授。夏梦舟的研究旨在开发算法,以实现语言模型的高效训练,同时尽量减少计算和数据需求。她在卡内基梅隆大学获得硕士学位,导师是Graham Neubig教授,并在中国复旦大学获得学士学位。夏梦舟是2024年苹果 AI/ML 博士奖学金和2022年彭博数据科学博士奖学金的获得者。在攻读博士学位期间,她曾在 Meta AI、微软研究院和彭博 AI 担任实习生。
➤ 个人主页
🔗 https://xiamengzhou.github.io/
关于我们
清华大学自然语言处理与社会人文计算实验室(TsinghuaNLP)成立于 20 世纪七十年代末,是国内开展自然语言处理研究最早、深具影响力的科研单位,也是中国中文信息学会计算语言学专业委员会及中国人工智能学会因果与不确定性人工智能专业委员会的挂靠单位。实验室在学术总体带头人孙茂松教授及学术方向带头人刘洋教授、刘知远副教授的带领下,围绕以中文为核心的自然语言处理,在语言大模型、跨模态大模型、中文信息处理、机器翻译、知识图谱、智慧教育、社会人文和艺术计算等方面开展系统深入的研究,在国内外具有较大的学术影响。近年来,实验室承担了国家 973 项目、国家重点研发项目、国家社会科学基金重大项目等多项重要研究任务,并与腾讯、华为、搜狗等企业建立密切的学术合作关系。
Website:http://nlp.csai.tsinghua.edu.cn/
Email:thunlp@163.com
GitHub:https://github.com/thunlp
https://github.com/OpenBMB
Twitter:https://twitter.com/TsinghuaNLP
THUNLP 长期开放招聘