Qwen2.5系列模型论文发布:数学、代码、多模态全揭秘!长上下文扩展和大模型泛化的研究....

文摘   2024-09-19 20:22   广东  

前言:如果你想成为一只科学界的“独角兽”,那么看论文是必不可少的。只有掌握了最新的技术和理论,才能在这个竞争激烈的市场中脱颖而出,成为那只最闪亮的“独角兽”!


1. Qwen2.5系列数学专家模型:自我提升的实现之路技术报告

  标题:Qwen2.5-Math Technical Report: Toward Mathematical Expert Model via Self-Improvement

  机构:阿里巴巴集团

  相关领域:模型结构改进、预训练、指令微调

  作者:An Yang,  Beichen Zhang,  Binyuan Hui

  分析:该论文介绍了一种新型数学大型语言模型——Qwen2.5系列数学专家模型。该模型的核心创新在于引入了自我提升的理念,在预训练、后训练和推理阶段都进行了优化。通过生成大规模高质量的数学数据,并利用奖励模型进行迭代优化,该模型在多种数学数据集上表现出强大的性能。

  地址:https://arxiv.org/pdf/2409.12122


2. Qwen2-VL:提升任何分辨率下的视觉语言模型对世界感知能力的研究

  标题:Qwen2-VL: Enhancing Vision-Language Model's Perception of the World at Any Resolution

  机构:阿里巴巴集团

  相关领域:模型结构改进、多模态

  作者:Peng Wang,  Shuai Bai,  Sinan Tan

  分析:论文介绍了Qwen2-VL系列模型,该模型是Qwen-VL模型的先进升级版本,重新定义了传统的视觉处理中的预设分辨率方法。通过引入Naive Dynamic Resolution机制,模型可以动态处理不同分辨率的图像并生成高效准确的视觉表示。此外,论文融合了多模态旋转位置嵌入技术(M-RoPE),促进了文本、图像和视频的位置信息的有效融合。论文还探索了大视觉语言模型(LVLMs)的扩展定律,并在不同版本和大量训练数据的基础上实现了高度竞争力的性能表现。

  地址:https://arxiv.org/pdf/2409.12191

  代码:https://github.com/QwenLM/Qwen2-VL


3. Qwen2.5-Coder技术报告

  标题:Qwen2.5-Coder Technical Report

  机构:阿里巴巴集团

  相关领域:模型结构改进、预训练、模型评估

  作者:Binyuan Hui,  Jian Yang,  Zeyu Cui

  分析:本文介绍了Qwen2.5-Coder系列,这是对其前身CodeQwen1.5的重大升级。该系列包括两个模型:Qwen2.5-Coder-1.5B和Qwen2.5-Coder-7B。Qwen2.5-Coder作为一个代码特定模型,建立在Qwen2.5架构上,并在超过5.5万亿令牌的庞大语料库上进行预训练。通过严格的数据清理、可扩展的合成数据生成和平衡的数据混合,Qwen2.5-Coder在保留通用性的同时,展示了令人印象深刻的代码生成能力。该模型已在广泛的代码相关任务中进行评估,在超过10个基准测试中实现最佳性能,包括代码生成、完成、推理和修复等任务。作者认为Qwen2.5-Coder系列的发布将推动代码智能研究边界的扩展,并且由于其许可开放性,将鼓励开发者在真实世界应用中的更广泛采纳。

  地址:https://arxiv.org/pdf/2409.12186


4. 长上下文扩展和大模型泛化的研究

  标题:A Controlled Study on Long Context Extension and Generalization in LLMs

  机构:康奈尔大学、麻省理工学院、上海AI实验室

  相关领域:模型结构改进、预训练、指令微调、奖励模型

  作者:Yi Lu,  Jing Nathan Yan,  Songlin Yang

  分析:这篇论文主要探讨了如何利用完整的文档上下文来实现对广泛文本的理解和上下文学习。由于直接训练长上下文模型的实现挑战,许多方法被提出用于扩展模型以处理长上下文。然而,由于数据和模型类别之间的差异,这些方法的比较一直具有挑战性,导致对于如何评估长上下文性能以及它是否与标准评估有所不同的不确定性。作者实施了一个受控的扩展方法协议,并使用标准化的评估方法进行扩展,该方法使用一致的基础模型和扩展数据。研究得出了一些关于长上下文行为的见解。首先,作者重申了困惑度作为通用性能指标的关键作用,即使在更长的上下文任务中也是如此。其次,作者发现当前的近似注意力方法在所有长上下文任务中系统性地表现不佳。最后,作者确认精确微调的方法在其扩展范围内通常有效,而外推仍然具有挑战性。所有的代码库、模型和检查点都将开放源代码,促进透明度并推动这一人工智能发展领域的重要研究。

  地址:https://arxiv.org/pdf/2409.12181


5. LLMs+Persona-Plug=Personalized LLMs

  标题:LLMs + Persona-Plug = Personalized LLMs

  机构:百度、中国人民大学

  相关领域:模型个性化

  作者:Jiongnan Liu,  Yutao Zhu,  Shuting Wang

  分析:本文提出了一种新的可扩展的个性化大型语言模型,通过轻量级的用户嵌入模块,对用户的历史上下文进行建模,使其能够理解和适应用户习惯与偏好,生成更个性化的输出。研究旨在解决大语言模型个性化时成本高昂和历史一致性问题。实验表明,该模型在LaMP基准任务上显著超越了现有方法。

  地址:https://arxiv.org/pdf/2409.11901


6. 思考链有助于数学和符号推理任务的分析研究

  标题:To CoT or not to CoT? Chain-of-thought helps mainly on math and symbolic reasoning

  机构:德克萨斯大学、普林斯顿大学、约翰霍普金斯大学

  相关领域:模型评估

  作者:Zayne Sprague,  Fangcong Yin,  Juan Diego Rodriguez

  分析:该论文主要探讨了思考链(Chain-of-thought,简称CoT)在大型语言模型(LLM)中的应用。研究发现,在涉及数学或逻辑的任务中,CoT能显著提高性能,而在其他类型的任务中则表现较小。此外,论文还探讨了CoT在这些问题中的作用,并对未来研究方法提出了新的观点和方向。

  地址:https://arxiv.org/pdf/2409.12183


7. 双层训练与同时思考和说话的大模型解码

  标题:Dual-Layer Training and Decoding of Large Language Model with Simultaneously Thinking and Speaking

  机构:北京航空航天大学

  相关领域:模型结构改进、预训练

  作者:Ningyuan Xi,  Xiaoyu Wang,  Yetao Wu

  分析:这篇论文主要探讨了如何通过设计新的模型架构来增强大语言模型的思考能力,使其在生成人类表达的同时,也能进行深入的思考和推理。作者提出了一种名为TaS的模型架构,该架构首先考虑问题,然后基于所考虑的问题生成响应。为了实现这一目标,作者设计了几种用于注释或生成思维内容的管道,并在中间层添加了一个语言头,该语言头充当思考层。通过使用由思维增强的数据进行训练,作者成功地让思考层自动生成合理的思考内容,并最终输出更合理的响应。实验结果表明,TaS模型在质量和性能方面都表现出色。

  地址:https://arxiv.org/pdf/2409.12059

  代码:https://anonymous.4open.science/r/TadE


8. From Lists to Emojis:格式偏见如何影响模型对齐

  标题:From Lists to Emojis: How Format Bias Affects Model Alignment

  机构:马里兰大学、伊利诺伊大学

  相关领域:模型对齐、奖励模型、RLHF

  作者:Xuanchang Zhang,  Wei Xiong,  Lichang Chen

  分析:这篇论文研究了在人类反馈强化学习(RLHF)中出现的格式偏见。该论文发现了对诸如列表、链接、粗体文本和颜文字等特定格式模式显著偏好的现象。此外,大型语言模型(LLMs)利用这些偏好达到在AlpacaEval和LMSYS Chatbot Arena等流行评估基准上的高分。其中一个显著的偏好是冗长偏置,即当前偏好模型倾向于格式更长的答复,即使它们的质量与更短的竞争答复相当。然而,除了长度偏置外,格式偏见的其他方面尚未得到充分的研究。在这项工作中,该论文扩大了偏好学习中偏见的研究范围,包括更广泛的其他格式偏见。该论文还展示了,即使使用少量偏置数据(少于1%),该论文也可以引入显著的偏见到奖励模型。此外,这些格式偏见也可以被下游对齐算法轻易地利用,如最佳子集抽样和在线迭代DPO,因为更容易操纵格式而不是提高回复质量。研究成果强调了分离格式和内容的重要性,无论是设计对齐算法还是评估模型。

  地址:https://arxiv.org/pdf/2409.11704


9. MAgICoRe:多智能体迭代粗细粒度优化推理

  标题:MAgICoRe: Multi-Agent, Iterative, Coarse-to-Fine Refinement for Reasoning

  相关领域:模型评估、奖励模型、模型结构改进

  作者:Justin Chih-Yao Chen,  Archiki Prasad,  Swarnadeep Saha

  分析:论文提出了一种多智能体迭代粗细粒度优化推理方法,旨在改进大型语言模型的推理能力。针对现有测试时间聚合策略性能饱和的问题,论文引入了细化概念并使用模型生成反馈提高解决方案质量。通过引入三个关键挑战和多智能体循环解决策略,论文实现了有效的模型推理优化。

  地址:https://arxiv.org/pdf/2409.12147


10. 改进大模型推理的多智能体树状思维验证代理

  标题:Improving LLM Reasoning with Multi-Agent Tree-of-Thought Validator Agent

  机构:德克萨斯大学

  相关领域:自然语言处理、人工智能、推理

  作者:Fatemeh Haji,  Mazal Bethany,  Maryam Tabar

  分析:多智能体策略已成为提高大型语言模型推理能力的有前途的方法,通过在解决问题的过程中分配专业的角色。同时,树状思维(ToT)方法在处理复杂问答任务时改善推理的潜力已经显示出来。多智能体推理的一个关键限制是'推理者'代理对推理路径的浅层探索。尽管ToT策略可以帮助减轻这个问题,但他们可能会生成有缺陷的推理分支,这可能会损害最终答案的可信度。为了利用多智能体推理和ToT策略的优势,该论文提出了一种新颖的方法,将基于ToT的推理者代理与思维验证代理相结合。多个推理者代理并行工作,利用ToT探索多种推理路径。思维验证者然后审查这些路径,只考虑推理者的结论,如果其推理是有效的。这种方法通过排除有缺陷的推理路径,增强了系统的强硬表决策略,使其能够处理需要系统性和可信推理的任务。该论文的方法在GSM8K数据集上的评估优于现有技术,将标准ToT策略平均提高5.6% across four LLMs.

  地址:https://arxiv.org/pdf/2409.11527


11. LLM-wrapper:黑箱视觉语言模型的语义感知适应

   标题:LLM-wrapper: Black-Box Semantic-Aware Adaptation of Vision-Language Foundation Models

   相关领域:视觉语言模型、 Referring Expression Comprehension、黑箱调整

   作者:Amaia Cardiel,  Eloi Zablocki,  Oriane Siméoni

   分析:本论文提出LLM-wrapper,一种无白盒权限下对视觉语言模型进行‘黑箱’调整的方法,以增强其Referring Expression Comprehension任务的能力。它通过利用大型语言模型进行深入输出解析来提升模型对语义和空间的理解。这项工作对现有模型进行显著提升,性能可与经典细调方法相媲美,解决零-shot能力有限的问题。

   地址:https://arxiv.org/pdf/2409.11919


12. 与数据一致的数据驱动控制:避免数据之外的过早泛化

   标题:Data-conforming data-driven control: avoiding premature generalizations beyond data

   相关领域:模型结构改进、评估指标

   作者:Mohammad Ramadan,  Evan Toler,  Mihai Anitescu

   分析:本文针对数据驱动和自适应控制方法所面临的引入数据学习过程之外的分布性突变的问题进行了探讨。这类方法可能会导致违反其构建时所使用的一系列假设,这主要是由于数据驱动控制方法中所固有假设的线性系统特性,这种特性可能会在数据范围外错误泛化系统的操作系统行为。本文的目标是通过强制使用数据及降低数据联合状态输入空间中的分布性突变速率,解决这一问题。实现这一目标的方法是引入affine正则化项和线性矩阵不等式约束到数据驱动方法中,从而得到可求解的凸半肯定义规划问题。文章讨论了这种规划的优化条件,并以一个数值实例进一步突显了越过数据界限的过早泛化问题,同时展示了所提出方法在提升数据驱动控制方法安全性的效果。

   地址:https://arxiv.org/pdf/2409.11549


13. Decoding Style:利用LLM解码风格的高效微调框架

   标题:Decoding Style: Efficient Fine-Tuning of LLMs for Image-Guided Outfit Recommendation with Preference

   相关领域:模型微调、多模态、个性化推荐

   作者:Najmeh Forouzandehmehr,  Nima Farrokhsiar,  Ramin Giahi

   分析:该论文提出一种利用大型语言模型(LLM)进行个性化的着装推荐框架,通过微调和直接反馈消除其透明度和静态性问题。通过结合多模态大语言模型进行图像描述以弥补商品描述中的视觉与文本差距,让LLM学习提取时尚风格和颜色特性,为个性化推荐奠定基础。通过在Polyvore开源数据集上进行有效微调,以及利用否定例的直接偏好机制,LLM能够根据季节时尚趋势不断优化推荐。实验评估在填补空白和互补项检索任务中表现出色,超出了基线LLM。这表明该框架能显著提升购物体验,具有很高的工业应用价值。

   地址:https://arxiv.org/pdf/2409.12150


14. RUIE:基于检索的统一信息提取大模型

   标题:RUIE: Retrieval-based Unified Information Extraction using Large Language Model

   相关领域:指令微调、奖励模型、模型蒸馏

   作者:Xincheng Liao,  Junwen Duan,  Yixi Huang

   分析:这篇论文提出了一种名为RUIE的统一信息提取框架,旨在解决大语言模型在处理未见过的信息提取任务时的泛化问题。RUIE通过利用上下文学习来快速泛化并减少计算成本,通过集成大语言模型的偏好来实现对候选演示的排名,并设计了关键词增强奖励模型来捕捉查询和演示之间的细微关系。实验结果表明,RUIE在泛化性能上优于基于指令微调的方法和其他检索器。

   地址:https://arxiv.org/pdf/2409.11673


15. M-BEST-RQ:智能眼镜多通道语音基础模型

   标题:M-BEST-RQ: A Multi-Channel Speech Foundation Model for Smart Glasses

   机构:俄亥俄州立大学

   相关领域:预训练、模型结构改进

   作者:Yufeng Yang,  Desh Raj,  Ju Lin

   分析:随着智能眼镜等可穿戴设备的普及,对其语音功能的需求也在增长。这篇论文提出了一个智能眼镜多通道语音基础模型M-BEST-RQ,它可以在阵列几何无关的方法下利用大规模自监督学习。与传统的独立训练模型不同,它可以从大量未标记数据中受益。该模型在对话自动语音识别、球形主动源定位和眼镜佩戴者语音活动检测等任务上表现出良好的性能,特别是在对话自动语音识别任务上,仅使用8小时的标记语音数据就能超越使用2000小时标记数据的监督ASR基线。

   地址:https://arxiv.org/pdf/2409.11494


16. DocMamba:基于状态空间模型的高效文档预训练

   标题:DocMamba: Efficient Document Pre-training with State Space Model

   相关领域:文档预训练, 自注意力优化, SFBS

   作者:Pengfei Hu,  Zhenrong Zhang,  Jiefeng Ma

   分析:论文介绍了一种名为DocMamba的新型框架,用于解决Transformer模型在处理长文档时的计算复杂性和信息连贯性问题。它通过将自注意力机制的复杂度降低到线性,同时保持全局建模能力。作者提出了Segment-First Bidirectional Scan(SFBS)来捕获连续的语义信息。实验表明,DocMamba在 FUNSD、CORD 和 SORIE 等任务上取得了最先进的结果,同时提高了速度和减少了内存使用。HRDoc上的测试进一步证明了其在长文档处理上的潜力。技术价值高,尤其对文档理解领域的研究来说。

   地址:https://arxiv.org/pdf/2409.11887


17. 将大模型的预测不确定性转化为可理解的语言表达

   标题:Finetuning Language Models to Emit Linguistic Expressions of Uncertainty

   机构:Google DeepMind

   相关领域:模型结构改进、预训练、指令微调、奖励模型、RLHF、模型评估、数据集构建、评估指标、模型蒸馏、多模态

   作者:Arslan Chaudhry,  Sridhar Thiagarajan,  Dilan Gorur

   分析:该论文探讨了如何通过监督微调,使大型语言模型能够产生表示其预测不确定性的语言表达。作者发现,预训练的大型语言模型在对其预测进行校准方面表现良好,并且,通过使用模型自身的置信度进行监督微调,可以生成具有良好校准的不确定性表达,特别是对于单声明答案的情况。

   地址:https://arxiv.org/pdf/2409.12180


18. 基于梯度信息的MoE模型研究

   标题:GRIN: GRadient-INformed MoE

   机构:微软

   相关领域:模型结构改进

   作者:Liyuan Liu,  Young Jin Kim,  Shuohang Wang

   分析:这篇论文介绍了MoE模型(Mixture-of-Experts模型)的优势和面临的挑战。针对传统训练实践中的梯度问题,论文提出了GRIN训练方法,通过稀疏梯度估计进行专家路由配置,避免了令牌丢失的模型并行性。在自动回归语言建模中的应用表明,该模型在性能上超过了密集模型,具有更大的扩展潜力。

   地址:https://arxiv.org/pdf/2409.12136


19. Flare: 融合语言模型和协作架构以增强推荐系统

   标题:FLARE: Fusing Language Models and Collaborative Architectures for Recommender Enhancement

   机构:滑铁卢大学、谷歌研究院

   相关领域:模型结构改进、多模态

   作者:Liam Hebert,  Marialena Kyriakidi,  Hubert Pham

   分析:这篇论文提出了一种名为Flare的 novel 推荐系统,它整合了一个语言模型(mT5)和一个协作过滤模型(Bert4Rec),通过 Perceiver 网络实现融合。这种架构允许 Flare 有效地结合协作和内容信息以改进推荐。首先,在较小数据集上的 established baselines 进行评估,展示出 Flare 具有competitive accuracy。然后,在更大、更现实的数据集上进行评估,结果表明 Flare 在更大项词汇量上同样表现优秀,并且展示了对其的 critique 能力,允许用户提供反馈以进一步 refine 推荐。最后,通过 critique 作为 evaluation method,评估模型对语言的理解和 transferability。主要解决的问题是如何在一个更大型、词汇量更大的数据集上提高推荐系统的准确性和可解释性。

   地址:https://arxiv.org/pdf/2409.11699


20. Mamba融合:通过提问学习动作

   标题:Mamba Fusion: Learning Actions Through Questioning

   机构:谷歌研究院、乔治亚理工学院

   相关领域:模型结构改进、多模态

   作者:Zhikang Dong,  Apoorva Beedu,  Jason Sheinkopf

   分析:这篇论文提出了一种新的视频语言模型(VLMs)的方法来解决视觉和语言任务的挑战。它通过利用选择性状态空间模态融合技术,克服了传统基于Transformer架构在视觉语言训练中的局限性,如二次计算复杂性、高GPU内存使用以及长期依赖性问题。该模型通过共享状态转换矩阵,在场景内从多个角度捕捉动作信息,并通过问答任务来指导模型学习相关线索,增强了动作识别和环境上下文理解的性能。

   地址:https://arxiv.org/pdf/2409.11513


21. 基于神经编码的图像回忆:接近人类的记忆

   标题:Neural Encoding for Image Recall: Human-Like Memory

   机构:UC伯克利分校

   相关领域:模型结构改进、预训练、模型评估

   作者:Virgile Foussereau,  Robin Dumas

   分析:本文专注于模仿人类记忆过程的方法,以实现人工系统的类人图像回忆能力。虽然在自然场景下人类有极强的记忆能力,但面对非自然的刺激时,这一能力显著减弱。研究提出一种技术,通过在编码前为图片添加噪声,模拟人类记忆编码中的不确定性。利用预训练模型的嵌入层,探索不同架构对图片的编码方式及其对记忆回召的影响。该方法在自然图片上的准确率为97%,而在纹理图片上的表现接近随机(52%)。这项研究提供了对编码过程的洞察,并揭示了人工智能和人类记忆机制之间的相似性,为机器学习记忆系统提供了宝贵信息。

   地址:https://arxiv.org/pdf/2409.11750


22. 轮椅用户共享自主系统WeHelp的研究

   标题:WeHelp: A Shared Autonomy System for Wheelchair Users

   机构:卡内基梅隆大学

   作者:Abulikemu Abuduweili,  Alice Wu,  Tianhao Wei

   分析:本文主要介绍了一种面向轮椅用户的共享自主系统WeHelp。该系统通过机器人技术,为轮椅用户提供辅助,帮助他们完成日常任务。系统包括跟随模式、遥控模式和遥操作模式。在跟随模式下,机器人通过视觉追踪自动跟随轮椅用户。在遥控模式和遥操作模式下,用户可以通过操纵杆控制机器人完成一些复杂的任务,如开关门、移动障碍物等。系统实用性得到了评估。

   地址:https://arxiv.org/pdf/2409.12159

   代码:https://github.com/Walleclipse/WeHelp


23. 多文档地基多轮生成式对话系统

   标题:Multi-Document Grounded Multi-Turn Synthetic Dialog Generation

   机构:IBM研究院

   相关领域:多文档对话系统、LLM、对话生成、多轮生成

   作者:Young-Suk Lee,  Chulaka Gunasekara,  Danish Contractor

   分析:论文介绍了一种利用 Taxonomy 驱动的 Chain-of-Thought 指令提示生成用户查询以控制对话流程的新技术。通过模仿真实世界检索器在用户每一轮对话后更新基础文档,保证了多文档地基对话的生成。此外,使用LLM作为法官来过滤出答案错误的查询。评估显示,该数据集生成的对话既多样又连贯,且大部分答案正确。模型在多轮文档地基基准测试集上的表现优于仅使用现有人类生成数据训练的模型。

   地址:https://arxiv.org/pdf/2409.11500


24. Low Frame-rate Speech Codec:为快速高质量语音大模型训练和推理设计的编解码器

   标题:Low Frame-rate Speech Codec: a Codec Designed for Fast High-quality Speech LLM Training and Inference

   机构:英伟达

   相关领域:模型结构改进、数据集构建

   作者:Edresson Casanova,  Ryan Langman,  Paarth Neekhara

   分析:这篇论文提出了一种低帧率语音编解码器(LFSC),该编解码器利用有限标量量化和对抗性训练,与大型语音语言模型相结合,实现了高质量音频压缩。与传统的音频编解码器相比,该编解码器能够以更快的速度和更高的效率进行语音语言模型的训练和推理,同时保持语音的清晰度和质量。

   地址:https://arxiv.org/pdf/2409.12117


25. 混合专家融合针对仿造音频检测的冻结wav2vec 2.0

   标题:Mixture of Experts Fusion for Fake Audio Detection Using Frozen wav2vec 2.0

   机构:腾讯、清华大学、中国科学院大学

   相关领域:模型结构改进、预训练

   作者:Zhiyong Wang,  Ruibo Fu,  Zhengqi Wen

   分析:这篇论文提出了一种基于Mixture of Experts的特征融合方法,用于仿造音频检测。该方法冻结了预训练模型,从各层特征中提取和整合与仿造音频检测相关的特征,由基于最后层特征的gating network指导,避免了对模型的 fine-tuning,从而减少了训练时间。实验在ASVspoof2019和ASVspoof2021 datasets上进行,与需要fine-tuning的方法相比,该方法表现出了竞争力的性能。

   地址:https://arxiv.org/pdf/2409.11909


26. 机器人学习通用框架

   标题:Generalized Robot Learning Framework

   机构:哈佛大学、清华大学

   相关领域:机器人学习

   作者:Jiahuan Yan,  Zhouyang Hong,  Yu Zhao

   分析:最近,模仿机器人学习在机器人领域获得显著关注,因为它具有理论上的可转移性和可泛化性。然而,它仍然是代价高昂的,无论是在硬件还是数据收集方面,在真实世界环境中部署它需要精心设置机器人和精确的实验条件。在这篇论文中,该论文提出了一种低成本的机器人学习框架,它既易于可重复,又可广泛应用于各种机器人和环境。该论文证明,可部署的模仿学习可以成功地应用于工业级机器人,不仅适用于昂贵的协作机器人手臂。此外,该论文的结果表明,多任务机器人学习可以在简单的网络架构和较少的示范下实现。当前的评估方法对于现实世界操作任务几乎是主观的,因此该论文提出“投票积极率”(VPR)-一种新颖的评估策略,能提供更客观的性能评估。该论文通过在各种自我设计的任务上的成功率比较来证明该论文的方法。为了促进协作和支持机器人学习社区,该论文已开源所有相关数据集和模型检查点,可通过http://huggingface.co/ZhiChengAI获得。

   地址:https://arxiv.org/pdf/2409.12061


27. 基于思维链提示的语音翻译

   标题:Chain-of-Thought Prompting for Speech Translation

   机构:英伟达

   相关领域:多模态、模型结构改进

   作者:Ke Hu,  Zhehuai Chen,  Chao-Han Huck Yang

   分析:这篇论文提出了一种利用自动语音识别(ASR)转录作为提示进行自动语音翻译(AST)的新方法。该方法基于大型语言模型(LLM),通过解码语音生成ASR转录,然后使用这些转录和编码语音进行提示,引导语音翻译过程。论文还介绍了低秩适配(LoRA)技术在T5 LLM中的应用,以提高模型适应性和翻译性能。实验结果表明,该方法显著提高了AST的性能,特别是在多语种翻译任务上。

   地址:https://arxiv.org/pdf/2409.11538


28. WMCodec:具有深度水印的端到端神经语音编解码器,用于身份认证

   标题:WMCodec: End-to-End Neural Speech Codec with Deep Watermarking for Authenticity Verification

   机构:清华大学

   相关领域:模型结构改进、多模态

   作者:Junzuo Zhou,  Jiangyan Yi,  Yong Ren

   分析:这篇论文提出了一种新的端到端的神经语音编解码器WMCodec,它能深度集成水印与语音特性用于身份验证。与之前的方法相比,WMCodec能够联合训练压缩与重建以及水印嵌入与提取过程,提高了水印的隐蔽性和提取准确性。同时,设计了注意力印记单元来减少量化噪声对水印的影响,并在多种质量指标下表现出优良性能。

   地址:https://arxiv.org/pdf/2409.12121


29. MEOW:基于内存监督的大模型通过反事实进行卸载学习

   标题:MEOW: MEMOry Supervised LLM Unlearning Via Inverted Facts

   机构:清华大学、复旦大学、上海AI实验室

   相关领域:模型评估、大模型子研究领域(其他)

   作者:Tianle Gu,  Kexin Huang,  Ruilin Luo

   分析:这篇论文关注大型语言模型(LLMs)在训练过程中可能记住敏感信息的问题,并提出一种事后删除这些信息的解决方案。论文提出了一种新的卸载学习方法MEOW,通过生成反事实数据集,使用梯度下降方法进行模型微调,以消除LLMs中的记忆。该方法在常用的卸载基准测试ToFU上表现出显著的效果,不仅提高了遗忘质量,而且不会显著降低模型的实用性。

   地址:https://arxiv.org/pdf/2409.11844


30. VL-Reader:视觉与语言重构是有效的场景文本识别器

   标题:VL-Reader: Vision and Language Reconstructor is an Effective Scene Text Recognizer

   机构:阿里巴巴集团

   相关领域:模型结构改进、预训练、多模态

   作者:Humen Zhong,  Zhibo Yang,  Zhaohai Li

   分析:论文提出了一种新的场景文本识别方法VL-Reader,通过视觉和语言之间的全面交互来解决文本识别中的挑战。方法包括使用Masked Visual-Linguistic Reconstruction(MVLR)目标进行建模,设计Masked Visual-Linguistic Decoder(MVLD)以实现跨模态特征交互。VL-Reader在预训练和微调阶段保持一致性,并在六个典型数据集上实现了平均准确率97.1%,超过了现有技术1.1%。

   地址:https://arxiv.org/pdf/2409.11656


31. 艺术与科学的量化大型模型:全面概述

   标题:Art and Science of Quantizing Large-Scale Models: A Comprehensive Overview

   机构:北京大学

   相关领域:模型结构改进、量化感知训练

   地址:https://arxiv.org/pdf/2409.11650


32. Biological arrow of time:涌现的纠缠信息层次与自建模动态

   标题:Biological arrow of time: Emergence of tangled information hierarchies and self-modelling dynamics

   机构:牛津大学、帝国理工学院、亚利桑那州立大学

   相关领域:模型结构改进、预训练

   地址:https://arxiv.org/pdf/2409.12029


33. DreamMover:利用扩散模型的先验知识进行大运动图像插值

   标题:DreamMover: Leveraging the Prior of Diffusion Models for Image Interpolation with Large Motion

   机构:华中科技大学、Adobe Research

   地址:https://arxiv.org/pdf/2409.09605


34. 利用最小训练成本实现实时会话

   标题:Enabling Real-Time Conversations with Minimal Training Costs

   机构:清华大学

   相关领域:模型结构改进、预训练

   地址:https://arxiv.org/pdf/2409.11727


35. 提高复杂公式识别精度的分层细节关注网络

   标题:Enhancing Complex Formula Recognition with Hierarchical Detail-Focused Network

   机构:香港大学、南洋理工大学

   相关领域:模型结构改进、预训练、指令微调

   地址:https://arxiv.org/pdf/2409.11677


36. Speaking from Coarse to Fine:通过多尺度语音编码和生成改进神经编解码器语言模型

   标题:Speaking from Coarse to Fine: Improving Neural Codec Language Model via Multi-Scale Speech Coding and Generation

   机构:香港中文大学

   相关领域:大模型、语音编码和生成、神经编解码器语言模型

   地址:https://arxiv.org/pdf/2409.11630


37. 音频文本对比模型中的关键设计选择对音乐文本表示学习的影响

   标题:Augment, Drop & Swap: Improving Diversity in LLM Captions for Efficient Music-Text Representation Learning

   机构:伦敦玛丽女王大学、Adobe Research

   地址:https://arxiv.org/pdf/2409.11498


38. GaussianHeads:从粗到细表示学习驾驶高斯头半身像

   标题:GaussianHeads: End-to-End Learning of Drivable Gaussian Head Avatars from Coarse-to-fine Representations

   机构:帝国理工学院、马克斯·普朗克计算机科学研究所

   相关领域:模型结构改进

   地址:https://arxiv.org/pdf/2409.11951


39. 代表性样本与多样样本选择提升半监督学习效果研究

   标题:Enhancing Semi-Supervised Learning via Representative and Diverse Sample Selection

   机构:浙江大学

   地址:https://arxiv.org/pdf/2409.11653


40. Takin:优质零样本语音生成模型的群体研究

   标题:Takin: A Cohort of Superior Quality Zero-shot Speech Generation Models

   相关领域:模型结构改进、预训练

   地址:https://arxiv.org/pdf/2409.12139

   代码:https://takinaudiollm.github.io


41. TART:一个用于可解释表格推理的开源工具增强框架

   标题:TART: An Open-Source Tool-Augmented Framework for Explainable Table-based Reasoning

   机构:亚利桑那大学、新加坡国立大学、MBZUAI大学

   相关领域:模型结构改进、数据集构建

   地址:https://arxiv.org/pdf/2409.11724

   代码:https://github.com/XinyuanLu00/TART


42. NT-ViT: 神经编解码视觉Transform用于EEG到fMRI的合成

   标题:NT-ViT: Neural Transcoding Vision Transformers for EEG-to-fMRI Synthesis

   机构:瑞典皇家理工学院

   相关领域:模型结构改进

   地址:https://arxiv.org/pdf/2409.11836

   代码:https://github.com/rom42pla/ntvit


43. DynaMo:visuo-motor控制领域的领域内动态预训练

   标题:DynaMo: In-Domain Dynamics Pretraining for Visuo-Motor Control

   相关领域:visuo-motor control, dynamics modeling, self-supervised learning

   地址:https://arxiv.org/pdf/2409.12192


44. MoRAG模型——基于多融合检索增强技术的文本驱动人类运动生成

   标题:MoRAG -- Multi-Fusion Retrieval Augmented Generation for Human Motion

   机构:加州大学

   相关领域:模型结构改进、预训练、多模态

   地址:https://arxiv.org/pdf/2409.12140

   代码:https://motion-rag.github.io/


45. LEMON: 基于网格优化和神经着色的局部编辑

   标题:LEMON: Localized Editing with Mesh Optimization and Neural Shaders

   机构:慕尼黑工业大学

   相关领域:模型结构改进、预训练

   地址:https://arxiv.org/pdf/2409.12024


46. 利用LLM进行API交互:分类和数据集生成的框架

   标题:Harnessing LLMs for API Interactions: A Framework for Classification and Synthetic Data Generation

   机构:纽约大学

   相关领域:模型结构改进、预训练、指令微调、奖励模型

   地址:https://arxiv.org/pdf/2409.11703


47. NovAScore: 一种用于评估文档级新颖性的新自动化指标

   标题:NovAScore: A New Automated Metric for Evaluating Document Level Novelty

   机构:摩根大通、哥伦比亚大学

   相关领域:模型评估

   地址:https://arxiv.org/pdf/2409.09249


48. SPRMamba:基于Mamba的内镜黏膜下剥离术手术阶段识别

   标题:SPRMamba: Surgical Phase Recognition for Endoscopic Submucosal Dissection with Mamba

   机构:上海交通大学

   相关领域:模型结构改进

   地址:https://arxiv.org/pdf/2409.12108


49. PARAPHRASUS:一个全面的语义等同检测模型基准

   标题:PARAPHRASUS : A Comprehensive Benchmark for Evaluating Paraphrase Detection Models

   机构:苏黎世大学

   相关领域:模型评估,语义理解,多模态评估

   地址:https://arxiv.org/pdf/2409.12060


50. LMMCoDrive:基于大模型的协同驾驶技术

   标题:LMMCoDrive: Cooperative Driving with Large Multimodal Model

   相关领域:模型结构改进、多模态

   地址:https://arxiv.org/pdf/2409.11981

   代码:https://github.com/henryhcliu/LMMCoDrive


51. 压缩激活的梯度反向传播,减少内存需求对应小型GPU

   标题:Less Memory Means smaller GPUs: Backpropagation with Compressed Activations

   机构:海德堡大学

   相关领域:模型结构改进

   地址:https://arxiv.org/pdf/2409.11902


52. 用自动化声明式UI代码生成器连接设计和开发

   标题:Bridging Design and Development with Automated Declarative UI Code Generation

   机构:华中科技大学、澳大利亚国立大学

   地址:https://arxiv.org/pdf/2409.11667


53. 自对比多段前馈网络算法

   标题:Self-Contrastive Forward-Forward Algorithm

   机构:康奈尔大学

   相关领域:模型结构改进

   地址:https://arxiv.org/pdf/2409.11593


54. 预训练语言模型在音乐理解方面的评估

   标题:Evaluation of pretrained language models on music understanding

   机构:伦敦玛丽女王大学

   相关领域:模型结构改进、预训练、指令微调

   地址:https://arxiv.org/pdf/2409.11449


55. 破解大模型使用符号数学

   标题:Jailbreaking Large Language Models with Symbolic Mathematics

   机构:德克萨斯大学

   相关领域:模型安全、AI安全

   地址:https://arxiv.org/pdf/2409.11445


56. MARCA:具有可重构架构的Mamba加速器

   标题:MARCA: Mamba Accelerator with ReConfigurable Architecture

   机构:上海交通大学

   地址:https://arxiv.org/pdf/2409.11440


57. 基于人类反馈的语言、语音和视觉任务中的偏好调整:一份调查报告

   标题:Preference Tuning with Human Feedback on Language, Speech, and Vision Tasks: A Survey

   机构:哥伦比亚大学

   相关领域:模型评估、数据集构建、评估指标

   地址:https://arxiv.org/pdf/2409.11564


58. Skill matching at scale:自由职业者与项目的多语言高效匹配研究

   标题:Skill matching at scale: freelancer-project alignment for efficient multilingual candidate retrieval

   相关领域:模型结构改进、多模态

   地址:https://arxiv.org/pdf/2409.12097


59. 在生成世界模型中表示位置信息以实现对象操作

   标题:Representing Positional Information in Generative World Models for Object Manipulation

   机构:根特大学

   相关领域:模型结构改进、多模态

   地址:https://arxiv.org/pdf/2409.12005


60. Extract-and-Abstract:在单个编码器-解码器框架中合并提取式和抽象式摘要

   标题:Extract-and-Abstract: Unifying Extractive and Abstractive Summarization within Single Encoder-Decoder Framework

   机构:曼彻斯特大学

   相关领域:模型结构改进,预训练

   地址:https://arxiv.org/pdf/2409.11827


61. From Words to Wheels:自动风格定制的自动驾驶策略生成

   标题:From Words to Wheels: Automated Style-Customized Policy Generation for Autonomous Driving

   地址:https://arxiv.org/pdf/2409.11694

   代码:https://yokhon.github.io/Words2Wheels/


62. 基于SIR模型的流行病规划问题解决指标混合规划方法

   标题:A Metric Hybrid Planning Approach to Solving Pandemic Planning Problems with Simple SIR Models

   机构:莫纳什大学

   地址:https://arxiv.org/pdf/2409.11631


63. Autoregressive + Chain of Thought Recurrent:循环在语言模型的计算能力与递归Transformer的重新审视

   标题:Autoregressive + Chain of Thought  Recurrent: Recurrence's Role in Language Models' Computability and a Revisit of Recurrent Transformer

   机构:英属哥伦比亚大学、MBZUAI大学

   相关领域:模型结构改进、模型评估

   地址:https://arxiv.org/pdf/2409.09239


64. METEOR: 能够适应旋律的纹理可控式交响乐生成模型

   标题:METEOR: Melody-aware Texture-controllable Symbolic Orchestral Music Generation

   相关领域:模型结构改进

   地址:https://arxiv.org/pdf/2409.11753


65. Brain-Streams:基于多模态引导的fMRI到图像重建

   标题:Brain-Streams: fMRI-to-Image Reconstruction with Multi-modal Guidance

   相关领域:模型结构改进、多模态

   地址:https://arxiv.org/pdf/2409.12099


66. ChefFusion:融合多模态的烹饪模型,实现食谱与食品图像生成整合

   标题:ChefFusion: Multimodal Foundation Model Integrating Recipe and Food Image Generation

   相关领域:多模态、模型结构改进与预训练

   地址:https://arxiv.org/pdf/2409.12010


67. 精确实数计算的必要编程语言

   标题:An Imperative Language for Verified Exact Real-Number Computation

   相关领域:模型结构改进、精确实数计算

   地址:https://arxiv.org/pdf/2409.11946


68. BanStereoSet数据集:衡量大模型中面向孟加拉语的刻板社会偏见

   标题:BanStereoSet: A Dataset to Measure Stereotypical Social Biases in LLMs for Bangla

   相关领域:模型评估、数据集构建

   地址:https://arxiv.org/pdf/2409.11638


69. Inferno:用于脉冲神经网络机器学习任务的扩展框架介绍

   标题:Inferno: An Extensible Framework for Spiking Neural Networks

   相关领域:模型结构改进

   地址:https://arxiv.org/pdf/2409.11567


70. 文本到SQL:你只读一次

   标题:You Only Read Once (YORO): Learning to Internalize Database Knowledge for Text-to-SQL

   相关领域:模型结构改进、预训练

   地址:https://arxiv.org/pdf/2409.12172


71. 更强的基线模型——实现机器学习研究与临床应用一致的关键要求

   标题:Stronger Baseline Models -- A Key Requirement for Aligning Machine Learning Research with Clinical Utility

   相关领域:模型评估、评估指标

   地址:https://arxiv.org/pdf/2409.12116


72. 语言合成数据的效用作为基准

   标题:Efficacy of Synthetic Data as a Benchmark

   相关领域:自然语言处理、文本生成

   地址:https://arxiv.org/pdf/2409.11968


73. 小型语言模型在创意写作任务中的表现优于人类

   标题:Small Language Models can Outperform Humans in Short Creative Writing: A Study Comparing SLMs with Humans and LLMs

   相关领域:模型结构改进、预训练、指令微调、奖励模型

   地址:https://arxiv.org/pdf/2409.11547


74. 单向人-机器人-人物理交互方法在步态训练中的应用

   标题:Unidirectional Human-Robot-Human Physical Interaction for Gait Training

   机构:西北大学

   相关领域:模型结构改进

   地址:https://arxiv.org/pdf/2409.11510


75. 超高性能月球着陆模拟

   标题:High performance Lunar landing simulations

   相关领域:模型结构改进

   地址:https://arxiv.org/pdf/2409.11450


76. 泛化压缩和大型数据集的压缩搜索

   标题:Generalized compression and compressive search of large datasets

   相关领域:数据集构建

   地址:https://arxiv.org/pdf/2409.12161


77. 元素顺序对LM代理性能的影响

   标题:The Impact of Element Ordering on LM Agent Performance

   相关领域:模型评估、模型结构改进

   地址:https://arxiv.org/pdf/2409.12089


78. 基于学习的加速A*搜索的风险感知路径规划

   标题:Learning-accelerated A* Search for Risk-aware Path Planning

   相关领域:模型结构改进、模型评估

   地址:https://arxiv.org/pdf/2409.11634


79. BERT-VBD:越南多文档摘要框架

   标题:BERT-VBD: Vietnamese Multi-Document Summarization Framework

   相关领域:模型结构改进、预训练、多模态

   地址:https://arxiv.org/pdf/2409.12134


80. Unraveling the Hessian:在损失函数景观中的平滑收敛途径

   标题:Unraveling the Hessian: A Key to Smooth Convergence in Loss Function Landscapes

   相关领域:模型结构改进

   地址:https://arxiv.org/pdf/2409.11995


81. M2R-Whisper:多阶段多尺度检索增强方法提高语音识别性能

   标题:M2R-Whisper: Multi-stage and Multi-scale Retrieval Augmentation for Enhancing Whisper

   相关领域:模型结构改进、数据集构建、多模态

   地址:https://arxiv.org/pdf/2409.11889


82. Retrieve, Annotate, Evaluate, Repeat:利用多模态LLM进行大规模产品检索评估

   标题:Retrieve, Annotate, Evaluate, Repeat: Leveraging Multimodal LLMs for Large-Scale Product Retrieval Evaluation

   相关领域:模型结构改进、预训练

   地址:https://arxiv.org/pdf/2409.11860


83. NFT赋能视觉艺术家的数字资产

   标题:Empowering Visual Artists with Tokenized Digital Assets with NFTs

   地址:https://arxiv.org/pdf/2409.11790


84. 大模型角色游戏中的角色知识错误检测挑战

   标题:Revealing the Challenge of Detecting Character Knowledge Errors in LLM Role-Playing

   相关领域:模型结构改进、预训练、指令微调、奖励模型

   地址:https://arxiv.org/pdf/2409.11726


85. Linguini:一种无语言专业知识的语言模型推理基准

   标题:Linguini: A benchmark for language-agnostic linguistic reasoning

   机构:伦敦大学

   地址:https://arxiv.org/pdf/2409.12126


好啦,小编今天的分享就到这里啦,欢迎留言讨论哦。

AI for Research
每天分享最新最热的Arxiv论文、一起来关注大模型、AIGC、AGI
 最新文章