点击下方卡片,关注“CVer”公众号
点击下方卡片,关注“CVer”公众号
AI/CV重磅干货,第一时间送达
AI/CV重磅干货,第一时间送达
添加微信号:CVer2233,小助手会拉你进群!
扫描下方二维码,加入CVer学术星球!可以获得最新顶会/顶刊上的论文idea和CV从入门到精通资料,及最前沿应用!发论文/搞科研/涨薪,强烈推荐!
添加微信号:CVer2233,小助手会拉你进群!
扫描下方二维码,加入CVer学术星球!可以获得最新顶会/顶刊上的论文idea和CV从入门到精通资料,及最前沿应用!发论文/搞科研/涨薪,强烈推荐!
中科院计算所、中国科学院大学、中关村实验室合作的一篇论文拿到了 EMNLP 2024 最佳论文奖。
刚刚,EMNLP 2024 论文奖项结果出炉了!
EMNLP 2024 会议近日在美国迈阿密盛大开幕,现场热闹非凡。
让国内研究者更加激动的是,EMNLP 2025 将在中国苏州举办:
论文 1:《An image speaks a thousand words, but can everyone listen? On image transcreation for cultural relevance》
作者:Simran Khanuja, Sathyanarayanan Ramamoorthy,Yueqi Song,Graham Neubig 机构:CMU 链接:https://aclanthology.org/2024.emnlp-main.573.pdf 获奖理由:介绍了「transcreation」的概念,即生成文化上合理的图像,并提供了一个基准数据集来评估 LLM 在这项任务中的能力,开辟了一个具有重大现实意义的新研究领域。
作者:William Chen, Wangyou Zhang, Yifan Peng, Xinjian Li, Jinchuan Tian,Jiatong Shi, Xuankai Chang, Soumi Maiti, Karen Livescu, Shinii Watanabe 机构:CMU、上海交大、丰田工业大学(芝加哥) 链接:https://aclanthology.org/2024.emnlp-main.570.pdf 获奖理由:发布了一个涵盖 4000 多种语言、超过 100 万小时语音的数据集,以及一个在数据基础上训练的多语言模型。
作者:Shahar Katz, Yonatan Belinkov, Mor Geva, Lior Wolf 机构:以色列理工学院、特拉维夫大学 链接:https://aclanthology.org/2024.emnlp-main.142.pdf 获奖理由:通过将梯度投射到词汇空间来实现可解释性,为模型编辑引入了一种优雅而直观的方法。
作者:Weichao Zhang, Ruging Zhang, Jiafeng Guo, Maarten de Rijke, Yixing Fan,Xueqi Cheng 机构:中科院计算所、中国科学院大学、中关村实验室、阿姆斯特丹大学 链接:https://aclanthology.org/2024.emnlp-main.300.pdf 获奖理由:提出了一种用于预训练数据黑盒检测的新数据集和方法
作者:Mustafa Omer Gul, Yoav Artzi 机构:康奈尔大学 链接:https://aclanthology.org/2024.emnlp-main.721.pdf 获奖理由:探索语言理解与语言生成的结合,以改善双人参考游戏中的人际互动。
论文 1:Fishing for Magikarp: Automatically Detecting Under-trained Tokens in Large Language Models 作者:Sander Land、Max Bartolo 机构:Cohere 链接:https://www.alphaxiv.org/abs/2405.05417v1 获奖理由:深入探讨了多个开源 LLM 中未充分训练的 token 所引发的问题。
论文 2:Learning to Retrieve lteratively for in-Context Learning 作者:Yunmo Chen, Tongfei Chen, Harsh Jhamtani, Patrick Xia, Richard Shin, Jason Eisner, Benjamin Van Durme 机构:微软 链接:https://arxiv.org/abs/2406.14739 获奖理由:提出了一种创造性的方法,将 in-context leaming 示例的选择建模为马尔可夫决策过程。
论文 3:Measuring Psychological Depth in Language Models 作者:Fabrice Y Harel-Canada, Hanyu Zhou, Sreya Muppalla, Zeynep Senahan Yildiz, Miryung Kim, Amit Sahai, Nanyun Peng 机构:加州大学洛杉矶分校 链接:https://arxiv.org/abs/2406.12680 获奖理由:提供了一套以叙事理论为基础的有用指标,用于评估 LLM 的叙事写作。
论文 4:Do LLMs Plan Like Human Writers? Comparing Journalist Coverage of Press Releases with LLMs 作者:Alexander Spangher, Nanyun Peng, Sebastian Gehrmann, Mark Dredze 机构:南加利福尼亚大学、加州大学洛杉矶分校、彭博社 链接:https://openreview.net/forum?id=E3VS45jxPR 获奖理由:提出了一种通过将 LLM 与新闻记者进行比较来评估 LLM 的方法和数据集
论文 5:Words Worth a Thousand Pictures: Measuring and Understanding Perceptual Variability inText-to-mage Generation 作者:Raphael Tang, Crvstina Zhang, Lixinyu Xu, Yao Lu, Wenvan Li, Pontus Stenetor, Jimmy Lin, Ferhan Ture 机构:Comcast AI Technologies、滑铁卢大学、伦敦大学学院、哥本哈根大学 链接:https://arxiv.org/pdf/2406.08482 获奖理由:为文本到图像的生成提出了一种经人工校准的可变性测量方法,并对实际影响进行了全面的学科间分析和讨论。
论文 6:Finding Blind Spots in Evaluator LLMs with Interpretable Checklists 作者:Sumanth Doddapaneni, Mohammed Safi Ur Rahman Khan, Sshubam Verma, Mitesh M Khapra 机构:Nilekani Centre at AI4Bharat、印度理工学院 链接:https://arxiv.org/abs/2406.13439 获奖理由:关于使用 LLM 作为评估者的研究,信息丰富,发人深省。
论文 7:GoldCoin: Grounding Large Language Models in Privacy Laws via Contextual Integrity Theory 作者:Wei Fan, Haoran Li, Zheye Deng, Weiqi Wang, Yanggiu Song 机构:香港科技大学计算机科学与工程系 链接:https://arxiv.org/html/2406.11149v1 获奖理由:提出了一个框架,该框架利用隐私场景公正理论(Contextual Integrity Theory) 将大型语言模型与隐私法对齐,增强了它们在各种上下文中检测隐私风险的能力。
论文 8:Verification and Refinement of Natural Language Explanations through LLM-Symbolic Theorem Proving 作者:Xin Quan, Marco Valentino, Louise A. Dennis, Andre Freitas 机构:曼彻斯特大学、瑞士 Idiap 研究所 链接:https://aclanthology.org/2024.emnlp-main.172.pdf 获奖理由:提出了一个集成 LLM 和定理证明的神经符号框架,以提高 NLl 任务的自然语言解释的质量和逻辑有效性。
论文 9:The Zeno's Paradox of'Low-Resource’ Languages 作者:Helina Hailu Niaatu, Atnafu Lambebo Tonia, Benjamin Rosman, Thamar Solorio, Monoit Choudhury 机构:MBZUAI 等 链接:https://arxiv.org/pdf/2410.20817 获奖理由:仔细研究了「低资源语言意味着什么」这个问题。
论文 10:When is Multilinguality a Curse? Language Modeling for 250 High- and Low-Resource Languages 作者:Tvler A.Chana. Catherine Arnett. Zhuowen Tu, Ben Bergen 机构:加州大学圣迭戈分校 链接:https://arxiv.org/pdf/2311.09205 获奖理由:对影响 LLM 跨语言预训练和性能的因素进行了广泛而严格的实证调查。
论文 11:Language Models Learn Rare Phenomena from Less Rare Phenomena: The Case of the Missing AANNS 作者:Kanishka Misra, Kyle Mahowald 机构:得克萨斯大学奥斯汀分校 链接:https://arxiv.org/pdf/2403.19827 获奖理由:介绍了一个有意思的实验设置,演示了 LLM 如何泛化以学习罕见现象。
论文 12:Fool Me Once? Contrasting Textual and Visual Explanations in a Clinical Decision-Support Setting 作者:Maxime Guillaume Kayser, Bayar Menzat, Cornelius Emde, Bogdan Alexandru Bercean, Alex Novak, Abdalá Trinidad Espinosa Morgado, Bartlomiej Papiez, Susanne Gaube, Thomas Lukasiewicz, Oana-Maria Camburu 机构:牛津大学、维也纳技术大学等 链接:https://arxiv.org/pdf/2410.12284 获奖理由:评估了临床人体研究中不同类型解释的有用性。
论文 13:Threshold-driven Pruning with Segmented Maximum Term Weights for Approximate Cluster-based Sparse Retrieval 作者:Yifan Qiao, Parker Carlson, Shanxiu He ,Yingrui Yang, Tao Yang 机构:加州大学圣巴巴拉分校 链接:https://sites.cs.ucsb.edu/~tyang/papers/2024EMNLP-CameraReady.pdf 获奖理由:提出了一个 probablistically-rank-safe 的动态 pruning 方案,用于快速的基于聚类的稀疏检索,这个方案对于当前检索系统和 RAG 管道来说非常重要。
论文 14:Learning Planning-based Reasoning by Trajectories Collection and Process Reward Synthesizing 作者:Fangkai Jiao, Chengwei Qin, Zhengyuan Liu, Nancy F. Chen, Shafig Joty 机构:新加坡南洋理工大学、新加坡信息通讯研究院、Salesforce 研究院 链接:https://arxiv.org/html/2402.00658v2 获奖理由:通过对合成数据提供中间基本原理监督,并在 trajectory 上应用 DPO,增强了 LLM 的推理能力。
论文 15:Are Large Language Models Capable of Generating Human-Level Narratives? 作者:Yufei Tian, Tenghao Huang,Miri Liu, Derek Jiang, Alexander Spangher, Muhao Chen, Jonathan May, Nanyun Peng 机构:加州大学洛杉矶分校、南加利福尼亚大学、加州大学戴维斯分校 链接:https://arxiv.org/pdf/2407.13248 获奖理由:引入了一个框架,在话语(discourse)层面评估 LLM 生成的叙述。
论文 16:Formality is Favored: Unraveling the Learning Preferences of Large Language Models on Data with Conflicting Knowledge 作者:Jiahuan Li, Yiging Cao, Shuiian Huang, Jiajun Chen 机构:南京大学计算机软件新技术国家重点实验室 链接:https://arxiv.org/pdf/2410.04784 获奖理由:研究了 LLM 在训练数据信息相互冲突的情况下如何学习。
论文 17:OATH-Frames: Characterizing Online Attitudes Towards Homelessness with LLM Assistants 作者:Jaspreet Ranjit, Brihi Joshi, Rebecca Dorn, Laura Petry, Olga Koumoundouros, Jayne Bottarini, Peichen Liu, Eric Rice, Swabha Swayamdipta 机构:南加利福尼亚大学计算机科学系、 链接:https://aclanthology.org/2024.emnlp-main.724.pdf 获奖理由:在领域专家和 LLM 助理的帮助下,对公众对无家可归者的态度进行大规模分析。
论文 18:SUPER: Evaluating Agents on Setting Up and Executing Tasks from Research Repositories 作者:Ben Bogin, Kejuan Yang, Shashank Gupta, Kyle Richardson, Erin Bransom, Peter Clark, Ashish Sabharwal, Tushar Khot 机构:艾伦人工智能研究所、华盛顿大学 链接:https://arxiv.org/pdf/2409.07440 获奖理由:创新的基准测试,用于评估基于大型语言模型(LLM)的智能体能否复现来自研究库的结果。
论文 19:Towards Cross-Cultural Mlachine Translation with Retrieval-Augmented Generation from Multilingual Knowledge Graphs 作者:Simone Conia, Daniel Lee, Min Li, Umar Faroog Minhas, Saloni Potdar, Yunyao Li 机构:罗马大学、Adobe、苹果 链接:https://arxiv.org/pdf/2410.14057 获奖理由:解决了翻译与文化相关的命名实体的挑战,挑战了以前关于如何翻译命名实体的观点。
论文 20:Which questions should l answer? Salience Prediction of Inquisitive Questions 作者:Yating Wu, Ritika Rajesh Mangla, Alex Dimakis, Greg Durrett, Junyi Jessy Li 机构:德克萨斯大学奥斯汀分校、 BespokeLabs.ai 链接:https://arxiv.org/abs/2404.10917 获奖理由:提出了一种预测语言敏感问题突出程度的方法和数据集,为语言社区内关于人类如何处理信息和信息内容的话语结构的持续辩论提供信息。
何恺明在MIT授课的课件PPT下载
在CVer公众号后台回复:何恺明,即可下载本课程的所有566页课件PPT!赶紧学起来!
ECCV 2024 论文和代码下载
在CVer公众号后台回复:ECCV2024,即可下载ECCV 2024论文和代码开源的论文合集
CVPR 2024 论文和代码下载
在CVer公众号后台回复:CVPR2024,即可下载CVPR 2024论文和代码开源的论文合集
Mamba、多模态和扩散模型交流群成立
扫描下方二维码,或者添加微信号:CVer2233,即可添加CVer小助手微信,便可申请加入CVer-Mamba、多模态学习或者扩散模型微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF、3DGS、Mamba等。
一定要备注:研究方向+地点+学校/公司+昵称(如Mamba、多模态学习或者扩散模型+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群
▲扫码或加微信号: CVer2233,进交流群
CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉(知识星球),已汇集上万人!
▲扫码加入星球学习
▲点击上方卡片,关注CVer公众号
整理不易,请赞和在看