2023年3月,应中国中文信息学会青工委委员、武汉大学国家网络安全学院邹立新和李晨亮两位老师邀请,中南大学覃立波老师、香港中文大学王本友老师、罗格斯大学刘殊畅博士、复旦大学魏忠钰老师、中国科学院自动化研究所张家俊老师、中国科学院自动化研究所陈玉博老师于18日来武汉大学分别作了6场精彩绝伦的学术讲座,每场报告均半个小时。近百位博士、硕士研究生参加。
01
覃立波老师报告
——“浅谈论文调研与研究方法”
覃立波老师的报告围绕论文调研与研究方法展开。在这个报告中,主要浅析如何进行一个方向的调研工作,并讲解如何逐步剖析去寻找到一个科研问题,帮助初入科研同学快速进入状态。。报告非常精彩和清晰,听众在报告过程中频繁提问和讨论,收获很大。
讲者介绍:
覃立波,中南大学计算机学院特聘教授,主要研究方向为任务型对话系统和自然语言处理。在ACL、EMNLP、AAAI、IJCAI等国际会议上发表论文多篇,研究成果曾入选Paper Digest高影响力论文及获得EMNLP2022 MMNLU Workshop最佳论文奖。担任IJCAI2021高级程序会委员(SPC)、EMNLP2022领域主席。
02
王本友老师报告
——“ChatGPT, 用聊天连接人类与语言模型”
王本友老师的报告首先介绍开拓性的语言模型ChatGPT。王本友老师从“语言模型”和“提示”这两个概念作为突破口:其中提示作为一个接口,连接人类和语言模型。通过使用文本提示,人们可以拓展ChatGPT的各种可能性,包括零样本生成、上下文学习、复杂推理、交互式聊天等,尽管其中的一些特性已经在ChatGPT的早期版本中进行了探索。接下来还进一步讨论了ChatGPT的新特性、技术地图、限制以及一些案例研究。为了帮助大家充分利用ChatGPT,演讲者还提供了一些基本的使用指南,可以帮助提高生产力。最后,王本友老师讨论了创建本地版ChatGPT以及他们在医学ChatGPT方面的工作的可能性。
讲者介绍:
王本友,香港中文大学深圳校区数据科学学院的助理教授。他曾是欧盟的玛丽居里研究员,并于2022年获得意大利帕多瓦大学的博士学位。曾获得SIGIR 2017获得了最佳论文提名奖,在NAACL 2019获得了最佳可解释NLP论文奖,以及在NLPCC 2022获得了最佳论文奖。他致力于构建新颖、可解释、强健且高效的自然语言处理系统,同时具备技术合理性和语言学动机。
03
刘殊畅博士报告
——“快手推荐系统技术分享 --- WWW2023专题报告”
快手推荐场景相比传统推荐场景具有大流量、更新快、玩法复杂、用户频繁交互的特点,尤其在持续交互和留存优化等长期目标上使用强化学习解决方案时,这些挑战被进一步放大。本次报告分享内容着重探讨其中多目标推荐、强化学习行为空间探索、以及留存优化问题的应对策略与思路,引起同学们广泛思考。
讲者介绍:
刘殊畅,快手高级算法工程师,毕业于罗格斯大学,师从张永锋老师。主要研究方向为推荐系统、迁移学习和端计算,发表CCF-A/B类论文10余篇。WWW/SIGIR/KDD/IJCAI/AAAI评审委员,TORS期刊评审委员.
04
魏忠钰老师报告
——“基于语言模型的一体化政治人物建模框架”
计算政治学的一个核心研究课题是使用量化方法进行议员行为的刻画。当前议员的行为建模研究很大程度上依赖投票数据,学者们基于议员的历史投票结果对他们的政治立场进行学习和估计。基于投票数据的建模方法存在两大问题:第一,模型泛化能力弱,无法针对没有投票数据积累的议员进行建模;第二,模型可解释性差,没有途径获取议员行为背后的原因,无法捕捉其政治观点。针对这两个问题,魏忠钰老师的研究团队探索了不同的语言模型驱动的政治人物建模方法。主要工作包括:(1)结合公开言论和投票行为的议员表示学习方法;(2) “领域适配-事件微调”的两阶段政治文本分析框架;(3)语言模型驱动的一体化政治人物建模框架。
讲者介绍:
魏忠钰,复旦大学大数据学院副教授,智能复杂体系实验室双聘研究员,博士生导师,复旦大学数据智能与社会计算实验室(Fudan DISC)负责人,香港中文大学博士,美国德州大学达拉斯分校博士后。现任中国中文信息学会情感计算专委会副秘书长,社交媒体处理专委会常务委员兼秘书,青年工作委员会执委会副主任。担任多个重要国际会议包括EMNLP、ACL的高级领域主席和组织委员会成员。主要研究领域包括自然语言处理,社会计算和多模态智能交互技术,在国内外相关领域高水平会议及期刊发表论文80余篇。曾获得2019年度中国中文信息学会社会媒体处理新锐奖,2020年度华为技术优秀成果奖,2021年上海市启明星计划,2022年中国计算机学会自然语言处理新锐学者奖。
05
张家俊老师报告
——“语言大模型的通用能力分析及其拓展”
以ChatGPT为代表的语言大模型表现出强大的通用能力,可以理解用户的各种意图,可以完成若干任务。其通用性主要由基础模型、指令学习、提示学习和基于人类反馈的强化学习决定,但是大模型的通用性还是会受到训练数据类型、规模和质量的限制,难以实现面向任意场景的全面通用。在这个报告中,张家俊老师首先跟大家一起探讨语言大模型的通用性表现,然后介绍目前拓展语言大模型通用性的增强技术,最后简要分享研究团队在这方面的尝试和探索。
讲者介绍:
张家俊,中国科学院自动化研究所研究员、博士生导师,主要研究方向为机器翻译和自然语言处理,获得国家优秀青年科学基金资助,入选中国科协首届青年人才托举工程、中国科学院青年创新促进会优秀会员和北京智源青年科学家。发表CCF-A/B类论文80余篇,出版学术专著2部、译著1部。获得中国中文信息学会钱伟长中文信息处理科学技术奖一等奖、青年创新奖一等奖和2020年北京市科学技术奖一等奖等。担任中国中文信息学会理事、青年工作委员会主任和机器翻译专委会副主任。担任ACL/EMNLP/COLING的(资深)领域主席,担任IEEE/ACM T-ASLP、ACM TALLIP和《自动化学报》等期刊的编委。
06
陈玉博老师报告
——“大模型中的常识知识探测与萃取”
本次报告首先介绍常识相关的基本概念,然后介绍常识知识探测与萃取的最新工作进展,最后介绍实践过程中的经验和体会。知识图谱是下一代人工智能的基础设施,是实现可解释人工智能的重要手段。然而,现有知识图谱大都以语言知识和世界知识为主,缺乏常识知识。常识知识对于AI对齐人类具有重要意义。基于大数据、大算力、大模型的大规模预训练语言模型中蕴含海量的知识,将其探测与萃取出来具有重大意义。
讲者介绍:
陈玉博,中国科学院自动化研究所模式识别国家重点实验室副研究员,入选2020 年第五届中国科协青年人才托举工程、2022 年全球华人AI 青年学者、2022 年中国科学院青年创新促进会会员、2022北京智源人工智能青年科学家俱乐部,担任中国中文信息学会青年工作委员会秘书长、COLING 2022领域主席、Data Intelligence编委。研究方向为自然语言处理和知识图谱,在ACL、EMNLP、AAAI 等国际重要会议和期刊发表学术论文40 余篇,其中多篇论文入选Paper Digest最具影响力论文,曾获多次最佳论文奖(NLP-NABD 2016、CCKS 2017、CCL 2020、CCKS 2020),Google Scholar引用量3900余次。出版学术专著两部《知识图谱》、《知识图谱:算法与实践》,由人工智能学会推荐入选十三五国家重点图书出版规划教材,连续多年在中国科学院大学主讲《知识图谱》课程,2021 年获得中国科学院大学优秀课程。主持国家自然科学基金面上项目、青年基金项目,参与国家自然科学基金重点项目、2030新一代人工智能重大项目、重点研发计划课题。主持研发的信息抽取和知识图谱构建系统多次获得国际/国内学术评测冠亚军。获2018 年中国中文信息学会“钱伟
长中文信息处理科学技术奖”一等奖,2019 年度北京市科学技术进步奖一等奖。
报告结束后,每一位老师、到场的专家学者都和在座的同学们进行了进一步深入的交流,现场气氛热烈、互动频繁。同学们进一步就相关学术研究上的一些问题进行了讨论,提出了许多具有前瞻性的问题,深入了解到最新的研究成果和发展趋势。通过本次活动的开展,促进了各高校之间的学术交流和合作,学院青年教师和研究生都纷纷表示收获颇多、受益匪浅。