LLM for Interdisciplinary Research
【主题】LLM for Interdisciplinary Research
【时间】2024年7月20日14:00-17:30
【地点】电子工程馆7层咖啡厅
非城市科学与计算研究中心人员请扫码填写个人信息报名后于研讨会现场签到入场
城市科学与计算研究中心第43次技术研讨会将于7月20日周六下午14:00举办。
本次技术研讨会的主题是“LLM for Interdisciplinary Research”。大语言模型近年来快速提升的智能水平在科学、社会、经济等多个领域都显现出了重要潜力,使得人工智能领域外的学者也同样关注大模型可能带来的变革性影响,积极开展基于大模型的跨学科研究,相关研究成果也多次发表在高水平综合性期刊上。
本次研讨会将以基于大模型的前沿交叉研究为背景,首先介绍近年学术普遍关注的研究热点,并进一步凝练为“大模型驱动的科学发现自动化”、“大模型的应用向善机制”、“人类意识感知的大模型交互”三个部分总结具体研究进展,重点回顾综述高水平综合性期刊上近期发表的重要科研成果。
Part.1 / 大模型驱动的科学发现自动化
第一部分关注LLM与传统科学研究的结合,经过对现有文献的归纳整理,我们发现LLM已经在文献调研与数据整理、科学假设提出与修正、模拟仿真与实验验证等科学研究的各个阶段有所应用。上述工作涵盖物理、生物、化学、数学等学科领域,本部分通过对这些工作中面向研究需求的LLM针对性适配、LLM展现的独特能力进行分析,总结LLM与科学研究结合的一般范式,以激发后续的讨论。
图 1.大模型驱动科学发现自动化流程
参考文献
[1] Zhang, Yu, et al. "A Comprehensive Survey of Scientific Large Language Models and Their Applications in Scientific Discovery." arXiv preprint arXiv:2406.10833 (2024).
[2] Wang, Hanchen, et al. "Scientific discovery in the age of artificial intelligence." Nature 620.7972 (2023): 47-60.
Part.2 / 大模型的应用向善机制
大模型(LLM)强大的能力使得其在教育、医疗等领域都具有巨大的应用前景,但如何确保LLM应用“向善”也成为了一个基础的研究问题。具体而言,第一,LLM不应该泄露用户的隐私信息,这些隐私信息包括蕴含在LLM的训练数据、微调数据、提示词等各个部分文本的个体信息;第二,LLM的生成结果要有用,这要求有效的减少LLM生成内容中的幻觉;第三,LLM不应该被应用于对人类有害的活动,因此研究如何减少LLM内容的毒性,禁止LLM被应用于生成欺诈、恐吓、威胁等相关的内容也是重要的问题。上述不同的方向针对LLM应用过程中可能出现的问题,分别构建了针对LLM使用的语料(隐私)、推理的过程(幻觉)、生成的文本(毒性)中的各种问题分别对LLM施加约束。与此同时,一个更为通用的方法是让LLM和人类的价值对齐,从而让LLM基于自身的价值观约束自身生成的文本,这样有望在多方面同时提升LLM的“向善性”。与之相对,潜在的不怀好意者还是有可能利用越狱攻击方法,攻破上述LLM在隐私保护、幻觉减少、毒性消除、价值观对齐方面约束。总体而言,在这次研讨会中,我们将分别讨论LLM向善各个维度的内容,从LLM训练/使用中的各个环节出发,探讨相关问题的解决方法,并有效对抗潜在的越狱攻击。
图 2.不同类型的越狱攻击方法
参考文献
[1] Rajkomar A, Loreaux E, Liu Y, et al. Deciphering clinical abbreviations with a privacy protecting machine learning system[J]. Nature Communications, 2022, 13(1): 7456.
[2] Theodorou B, Xiao C, Sun J. Synthesize high-dimensional longitudinal electronic health records via hierarchical autoregressive language model[J]. Nature communications, 2023, 14(1): 5305.
[3] Farquhar S, Kossen J, Kuhn L, et al. Detecting hallucinations in large language models using semantic entropy[J]. Nature, 2024, 630(8017): 625-630.
[4] Schramowski P, Turan C, Andersen N, et al. Large pre-trained language models contain human-like biases of what is right and wrong to do[J]. Nature Machine Intelligence, 2022, 4(3): 258-268.
[5] Xie Y, Yi J, Shao J, et al. Defending chatgpt against jailbreak attack via self-reminders[J]. Nature Machine Intelligence, 2023, 5(12): 1486-1496.
[6] Hagendorff T. Deception abilities emerged in large language models[J]. Proceedings of the National Academy of Sciences, 2024, 121(24): e2317967121.
[7] Lukas N, Salem A, Sim R, et al. Analyzing leakage of personally identifiable information in language models[C]//2023 IEEE Symposium on Security and Privacy (SP). IEEE, 2023: 346-363.
Part.3 /人类意识感知的大模型交互
在本部分中,我们将聚焦人类与大型语言模型(LLM)的互动,特别强调人类意识感知的大模型交互(Human-aware LLM)。我们将深入探讨如何利用人类知识评估和提升LLM的能力,以及LLM如何更好地辅助人类在各个领域中的表现。内容将从个体和社会两个维度,以及LLM和人类两个角度进行划分。
首先,我们将讨论如何在个体和社会层面评估和提升LLM的能力,利用个人和社会的人类知识来评测和提升LLM的能力,并与人类的能力进行比较。这涉及语言学、认知科学、心理学等多个学科的研究成果,并探讨LLM如何辅助个体和社会相关的研究和决策。
其次,我们将探讨LLM在个体和群体层面如何帮助人类,包括在心理学、认知科学、社会学等研究领域的应用,以及在教育、医疗、政策制定等实际应用中的潜力。总体而言,我们关注的是LLM和人类如何相互帮助、共同进步和演化。通过深入理解人类知识并将其应用于LLM的发展,可以促进两者之间的协同效应,推动科技与人文的融合,实现更广泛的社会进步。这种互动不仅能够提升LLM的性能,也能够使人类在面对复杂问题时获得更有力的支持。
图 3.大模型与人脑对语言的响应的关联
参考文献
[1] Shanahan, M., McDonell, K., & Reynolds, L. (2023). Role play with large language models. Nature, 623(7987), 493-498.
[2] Tuckute, G., Sathe, A., Srikant, S., Taliaferro, M., Wang, M., Schrimpf, M., ... & Fedorenko, E. (2024). Driving and suppressing the human language network using large language models. Nature Human Behaviour, 8(3), 544-561.
[3] Peters, H., & Matz, S. C. (2024). Large language models can infer psychological dispositions of social media users. PNAS nexus, 3(6).
[4] Kirk, H. R., Vidgen, B., Röttger, P., & Hale, S. A. (2024). The benefits, risks and bounds of personalizing the alignment of large language models to individuals. Nature Machine Intelligence, 1-10.
[5] Strachan, J. W., Albergo, D., Borghini, G., Pansardi, O., Scaliti, E., Gupta, S., ... & Becchio, C. (2024). Testing theory of mind in large language models and humans. Nature Human Behaviour, 1-11.