字节发布新研究:扩散视频模型DiT的规模缩放规律!大模型是否具备逻辑推理能力? SAT 解决问题的理论与实验研究

文摘   2024-10-11 17:44   广东  

前言:如果你想成为一只科学界的“独角兽”,那么看论文是必不可少的。只有掌握了最新的技术和理论,才能在这个竞争激烈的市场中脱颖而出,成为那只最闪亮的“独角兽”!


1. 扩散Transformers(DiT)的规模缩放规律

  标题:Scaling Laws For Diffusion Transformers

  机构:字节跳动、香港大学、香港中文大学

  关键词:扩散Transformers(DiT),规模缩放规律,预训练,文本到图像生成

  作者:Zhengyang Liang,  Hao He,  Ceyuan Yang

  分析:这篇论文主要研究了扩散Transformers(DiT)在大模型领域的规模缩放规律。通过在不同计算预算范围内进行实验,首次确认了DiT存在规模缩放规律。具体地,预训练DiT的损失也随所涉及的计算量的幂律关系而变化。基于这个规模缩放规律,该论文不仅可以确定最优模型大小和所需数据,还可以准确预测具有10亿参数和1e21 FLOPs计算预算的文本到图像生成损失。此外,该论文还证明了预训练损失的趋势与生成性能(如FID)相匹配,即使在各种数据集上也是如此。这补充了从计算到合成质量的映射,并提供了一个可预测的基准,可以在较低成本下评估模型性能和数据质量。

  地址:https://arxiv.org/pdf/2410.08184


2. 奥林匹亚数学基准:通用大模型数学推理

  标题:Omni-MATH: A Universal Olympiad Level Mathematic Benchmark For Large Language Models

  机构:北京大学、香港大学、滑铁卢大学

  作者:Bofei Gao,  Feifan Song,  Zhe Yang

  分析:近期在大型语言模型(LLM)方面的进步已导致在数学推理能力方面取得重大突破。然而,现有的基准,如gsm8k或math,现在已经被具有高准确性的模型解决,如OpenAI的o1在math数据集上实现94.8%的准确率,表明它们已经无法真正挑战这些模型。为了填补这一差距,该论文提出一个专门设计用于评估LLM在奥林匹克水平上数学推理能力。与现有的奥林匹克相关基准不同,该论文的数据集完全专注于数学,包括4428个竞赛级别问题,经过仔细的人类注释。这些问题被细心地分类到33个子领域,涵盖10多个独特的难度级别,能够全面评估模型在奥林匹克数学推理方面的表现。此外,该论文对这个基准进行了深入分析。实验结果显示,即使是最先进的模型,如OpenAI的o1-mini和o1-preview,在有组织结构的奥林匹克级别问题时,准确率也只有60.54%和52.55%,这也凸显了在奥林匹克级别数学推理存在显著挑战。

  地址:https://arxiv.org/pdf/2410.07985


3. 多代理协同数据选择方法对大模型预训练的效率提升

  标题:Multi-Agent Collaborative Data Selection for Efficient LLM Pretraining

  机构:北京大学、香港科技大学、上海AI实验室

  关键词:大型语言模型、数据选择、预训练效率、多代理协同

  作者:Tianyi Bai,  Ling Yang,  Zhen Hao Wong

  分析:该研究提出了一种多代理协同数据选择机制,旨在优化大型语言模型(LLM)预训练过程中数据的选择效率。每个数据选择方法被视为独立代理,并由中央控制台动态整合所有代理在整个LLM训练过程中的信息。实验结果表明,该方法显著提高了数据选择效率,加速了LLM训练的收敛,并在多个语言模型基准测试中平均提升了10.5%的性能,相比现有技术有了显著改进。

  地址:https://arxiv.org/pdf/2410.08102


4. MathCoder2:通过模型翻译的数学代码的持续预训练提升数学推理能力

  标题:MathCoder2: Better Math Reasoning from Continued Pretraining on Model-translated Mathematical Code

  机构:香港中文大学、中国科学技术大学

  关键词:MathCoder2、数学代码、持续预训练、数学推理能力

  作者:Zimu Lu,  Aojun Zhou,  Ke Wang

  分析:论文提出了一种新的方法,通过生成数学代码和相应的推理步骤来进行持续预训练,以提升大型语言模型的数学推理能力。该方法构建了一个高质量的数学预训练数据集,结合数学相关网络数据、使用数学包的代码、数学教科书和合成数据。训练使用此数据集的模型,显著提高了数学能力,推出了MathCoder2系列模型。数据处理和训练代码公开,确保了数据收集和训练管道的全透明和可复现性。

  地址:https://arxiv.org/pdf/2410.08196

  代码:https://github.com/mathllm/MathCoder2


5. Transformer 是否具备逻辑推理能力? SAT 解决问题的理论与实验研究

  标题:Can Transformers Reason Logically? A Study in SAT Solving

  机构:谷歌研究院、乔治亚理工学院

  关键词:XLUTE、语言模型、逻辑推理

  作者:Leyan Pan,  Vijay Ganesh,  Jacob Abernethy

  分析:该论文从逻辑推理能力视角,研究了大型语言模型在布尔满足(SAT)问题处理中的合理性。首先,该论文构建了一个用来利用回溯推理和基于链串(CoT)的推理的Seq2Seq Transformer。通过证明其正确性,该论文展示了其/testify效果与经典DPLL算法相符。其次,为了支持这一抽象构建,该论文设计了一个FTA编译器(tf-atf),输入为程序说明,输出为实现此说明的Transformer模型。第三,通过学习DPLL算法的算法迹(推理路径),该论文评估了大型语言模型是否可以“直接训练”一种推理能力。该论文发现确实可以实现逻辑推理。

  地址:https://arxiv.org/pdf/2410.07432


6. Hallo2: 长时长、高分辨率的语音驱动头像动画

  标题:Hallo2: Long-Duration and High-Resolution Audio-Driven Portrait Image Animation

  机构:百度、复旦大学、南京大学

  关键词:语音驱动、头像动画、4K分辨率、文本提示

  作者:Jiahao Cui,  Hui Li,  Yao Yao

  分析:本文介绍了对Latent Diffusion基于生成模型的面部动画,如Hallo的最新更新。这些新特性扩展了其能力,包括制作长时间的视频,实现4K分辨率的头像动画,以及引入可调的文本标签作为条件输入等。该论文的工作首次实现了以音频驱动的长达数小时的4K分辨率头像动画,并增强了文本提示的效果。该论文在多个公开数据集上进行了广泛的实验验证,结果表明该论文的方法在长时间的头像动画生成方面达到了最先进的性能。

  地址:https://arxiv.org/pdf/2410.07718

  代码:https://fudan-generative-vision.github.io/hallo2


7. Packing Analysis:大型模型或数据集在有监督微调中填充是否更为适宜

  标题:Packing Analysis: Packing Is More Appropriate for Large Models or Datasets in Supervised Fine-tuning

  机构:字节跳动、浙江大学、卡内基梅隆大学

  关键词:装箱分析、有监督微调、填充技术、模型优化

  作者:Shuhe Wang,  Guoyin Wang,  Jiwei Li

  分析:论文分析了填充技术与装箱技术在有监督微调阶段的效率与性能,探索了装箱方法在不同规模的模型和数据集上的适用性。研究了装箱方法对模型对上下文依赖的影响,比较了填充和装箱方法的优劣,并通过实际测试验证了装箱方法的实用性,提出了装箱方法在实际训练场景中的实施考虑,并开源了用于精调的代码及不同规模的数据集测试结果,旨在推动装箱技术在未来研究中的应用。

  地址:https://arxiv.org/pdf/2410.08081

  代码:https://github.com/ShuheWang1998/Packing-Analysis?tab=readme-ov-file


8. MACPO:基于多智能体对比偏好优化实现弱到强的对齐

  标题:MACPO: Weak-to-Strong Alignment via Multi-Agent Contrastive Preference Optimization

  机构:百度、山东大学、阿姆斯特丹大学

  关键词:MACPO框架、弱到强对齐、多智能体对比偏好优化、正向行为增强

  作者:Yougang Lyu,  Lingyong Yan,  Zihan Wang

  分析:这篇论文关注大型语言模型(LLM)与人类价值观的匹配问题。在LLM性能超越人类的场景中,论文提出了一种多智能体对比偏好优化(MACPO)框架,解决弱教师到强学生的对齐问题。MACPO框架通过迭代强化不熟悉的正向行为并惩罚熟悉的负向行为,促进弱教师和强学生之间的学习。同时,论文还提出了相互正向行为增强策略和硬负行为构建策略。

  地址:https://arxiv.org/pdf/2410.07672


9. Moyun:基于扩散原理的特定风格中文书法生成

  标题:Moyun: A Diffusion-Based Model for Style-Specific Chinese Calligraphy Generation

  机构:复旦大学、华东师范大学

  关键词:Moyun模型、中文书法生成、风格控制、TripleLabel控制机制

  作者:Kaiyuan Liu,  Jiahao Mei,  Hengyu Zhang

  分析:针对中文书法生成中指定书法家、字体和字符风格生成挑战,提出一种新型中文书法生成模型Moyun。通过替换扩散模型中的Unet为Vision Mamba,并引入TripleLabel控制机制,实现可控的书法生成。在大型数据集Mobao上进行测试,结果表明Moyun能有效控制生成过程并产生指定风格的书法,即使对书法家未写过的书法也能匹配其风格。

  地址:https://arxiv.org/pdf/2410.07618


10. PLaMo-100B:为日语能力设计的从头开始的语言模型

  标题:PLaMo-100B: A Ground-Up Language Model Designed for Japanese Proficiency

  关键词:PLaMo-100B、日语语言模型、大规模语言模型、训练稳定性

  作者:Kenshin Abe,  Kaizaburo Chubachi,  Yasuhiro Fujita

  分析:介绍PLaMo-100B,一种为日语能力设计的大规模语言模型。该模型从头开始训练,使用2万亿个令牌,采用QK归一化和Z-Loss等架构,确保训练过程的稳定性。应用了监督微调和直接偏好优化等后训练技术,以优化模型性能。基准评估表明,PLaMo-100B在日语特定任务上表现良好,与GPT-4等前沿模型的竞争结果相当。

  地址:https://arxiv.org/pdf/2410.07563


11. MotionAura:利用离散扩散生成高质量且动作一致的视频

   标题:MotionAura: Generating High-Quality and Motion Consistent Videos using Discrete Diffusion

   关键词:视频生成、文本到视频生成、时空建模、扩散模型

   作者:Onkar Susladkar,  Jishu Sen Gupta,  Chirag Sehgal

   分析:论文介绍了针对视频数据的时空复杂性所遇到的挑战,如压缩、生成和补全等任务。论文提出了四个关键贡献来解决时空视频处理的问题。首先,论文引入了3D Mobile Inverted Vector-Quantization Variational Autoencoder,结合变分自编码器和掩码标记建模,提高时空视频压缩性能。其次,提出了MotionAura文本到视频生成框架,利用向量量化扩散模型离散潜在空间,捕捉复杂运动动态。此外,论文还介绍了基于谱Transform的去噪网络,以及在Sketch Guided Video Inpainting下游任务中的表现。这些贡献提供了时空建模和用户驱动的视频内容操作的稳健框架。

   地址:https://arxiv.org/pdf/2410.07659


12. 渐进式自回归视频扩散模型

   标题:Progressive Autoregressive Video Diffusion Models

   机构:Adobe Research

   作者:Desai Xie,  Zhan Xu,  Yicong Hong

   分析:这篇论文提出了一种新的视频扩散模型,通过将潜在帧分配给逐渐增加的噪声级别,而不是单一的噪声级别,使得模型能够自然地扩展到自回归视频扩散模型。这种渐进式的视频去噪方法使得模型能够在不降低质量或突然改变场景的情况下自回归地生成视频帧。在1分钟长的视频生成任务上,该模型表现出了最先进的性能。

   地址:https://arxiv.org/pdf/2410.08151

   代码:https://desaixie.github.io/pa-vdm/


13. 大模型的循环再利用:转化为混合专家模型的研究

   标题:Upcycling Large Language Models into Mixture of Experts

   机构:英伟达

   关键词:大型语言模型、混合专家模型、模型循环利用、模型结构改进

   作者:Ethan He,  Abhinav Khattar,  Ryan Prenger

   分析:这篇论文研究了一种将预训练的大型语言模型转化为混合专家(MoE)模型的有效方法,旨在提高已训练模型的能力。主要解决了如何在大规模语言模型上进行循环再利用的问题。通过广泛的研究和实验,论文提出了一种新的虚拟组初始化和权重缩放方法,以实现精细的MoE架构。同时,论文还探讨了softmax-then-topK专家路由与topK-then-softmax方法的优劣,以及更高粒度的MoEs对精度的影响。最后,通过对比连续训练模型和循环再利用模型的结果,验证了循环再利用方法的有效性。

   地址:https://arxiv.org/pdf/2410.07524


14. 自动课程表专家迭代法可靠LLM推理

   标题:Automatic Curriculum Expert Iteration for Reliable LLM Reasoning

   机构:新加坡国立大学、Salesforce AI

   关键词:自动课程表、专家迭代、LLM推理

   作者:Zirui Zhao,  Hanze Dong,  Amrita Saha

   分析:该论文旨在解决大型语言模型推理过程中的幻觉(即生成虽然合理解但实际错误的内容)和懒惰(即过多地拒绝或默认回答'我不知道')问题。论文提出了一种自动课程表专家迭代法,以提升LLM推理能力并使其回答与其能力相匹配。该方法通过探索与LLM策略相近的推理轨迹,重新引导错误的路径以减少累积错误并提高鲁棒性;同时,它鼓励在充分尝试后合理地发表'我不知道'的回答。这种方法通过自动调整奖励,激励在被认定为无能前进行更深入的推理,从而拓宽了LLM推理的边界并与其能力保持一致。通过在不同类型的逻辑推理、数学和规划任务中与当前最先进的方法进行比较,该方法在实现平衡自信与保守方面显示出优越性。

   地址:https://arxiv.org/pdf/2410.07627


15. 奖励增强数据提高大模型的偏好对齐性能

   标题:Reward-Augmented Data Enhances Direct Preference Alignment of LLMs

   机构:西北大学、字节跳动

   关键词:奖励增强数据、大语言模型、偏好对齐、数据集构建

   作者:Shenao Zhang,  Zhihan Liu,  Boyi Liu

   分析:本文主要研究如何提升大语言模型(LLM)的偏好对齐性能。针对现有直接对齐算法主要关注相对偏好而忽视响应质量的问题,提出了一种基于奖励增强的LLM策略。通过构建奖励增强数据集,该策略能够识别并学习整个响应质量谱,从而提高模型性能。实验结果表明,该方法在多种指令跟随基准测试上均取得了显著的提升。

   地址:https://arxiv.org/pdf/2410.08067

   代码:https://github.com/shenao-zhang/reward-augmented-preference


16. 教学启发集成提示框架:提高大模型中推理能力的新方法

   标题:Teaching-Inspired Integrated Prompting Framework: A Novel Approach for Enhancing Reasoning in Large Language Models

   机构:香港大学

   关键词:教学启发集成提示框架、大型语言模型、推理能力、模型评估

   作者:Wenting Tan,  Dongxiao Chen,  Jieting Xue

   分析:这篇论文提出了一种新的集成提示框架,模拟教师在教学过程中指导学生的过程,以提升大型语言模型的推理能力。同时引入两个新的中文数据集,通过实验验证了该方法在多个数学基准测试上的优越性。

   地址:https://arxiv.org/pdf/2410.08068

   代码:https://github.com/SallyTan13/Teaching-Inspired-Prompting


17. 大模型剪枝数据选择的最优性研究

   标题:Is C4 Dataset Optimal for Pruning? An Investigation of Calibration Data for LLM Pruning

   机构:中山大学、牛津大学、华盛顿大学

   关键词:大型语言模型、数据选择、C4数据集、预训练数据

   作者:Abhinav Bandari,  Lu Yin,  Cheng-Yu Hsieh

   分析:该论文主要探讨了用于大型语言模型剪枝的数据选择问题。目前,所有的大型语言模型剪枝方法都普遍依赖于C4数据集作为校准数据来计算剪枝分数,但该研究发现,这种选择并非最优。该研究对常用于大型语言模型训练和评估的各种数据集进行了广泛的评估,包括四个相关的数据集以及三个涵盖九个数据集的下游任务类别。结果表明:(1)C4并不是大型语言模型剪枝的最优选择,即使是在常用的预训练数据集中也是如此;(2)算术数据集在使用作校准数据时,其性能与预训练数据集相当甚至更好;(3)使用下游数据集进行剪枝并不一定有助于相应的下游任务,相比之下,使用预训练数据则更为有效;(4)ICL对所有数据类别都有广泛的好处,而CoT仅在某些任务上有用。这些发现揭示了选择大型语言模型剪枝校准数据的重要性,为更有效地将这些强大的模型部署到实际应用中铺平了道路。

   地址:https://arxiv.org/pdf/2410.07461

   代码:https://github.com/abx393/llm-pruning-calibration-data


18. 简化ReFlow:快速流模型改进技术

   标题:Simple ReFlow: Improved Techniques for Fast Flow Models

   机构:Apple、韩国科学技术院

   关键词:简化ReFlow、扩散和流匹配模型、神经ODEs、流模型加速

   作者:Beomsu Kim,  Yu-Guan Hsieh,  Michal Klein

   分析:这篇论文主要探讨了一类称为扩散和流匹配模型的新实践,它们在生成性能上表现出极佳的表现,但需要许多采样步骤,这会放慢推理过程并限制其在时间敏感任务中的应用。ReFlow程序可以通过平直化生成路径来加速采样。然而,ReFlow是一个迭代程序,通常需要在模拟数据上进行训练,并导致样本质量降低。作者在重思ReFlow的设计空间并指出先前经验的潜在陷阱后,提出了七项改进,涉及训练动力学、学习和推理方法。这些改进通过全面的正则化研究在CIFAR10,AFHQv2和FFHQ上得到了验证。论文整合所有技术实现了快速生成新的状态。并且仅需要9个神经功能评估即可 。

   地址:https://arxiv.org/pdf/2410.07815


19. DART:去噪自回归Transformer——用于可扩展的文本到图像生成

   标题:DART: Denoising Autoregressive Transformer for Scalable Text-to-Image Generation

   机构:Apple、香港中文大学

   关键词:DART模型,文本到图像生成,去噪自回归Transformer,模型结构改进,多模态

   作者:Jiatao Gu,  Yuyang Wang,  Yizhe Zhang

   分析:这篇论文提出了一种基于去噪自回归Transformer(DART)的模型,该模型将自回归(AR)和扩散过程统一到一个非马尔可夫框架中,用于可扩展的文本到图像生成。DART通过空间上和光谱上的迭代去噪图像块,使用与标准语言模型相同的AR模型架构。它不需要依赖图像量化,能够在保持灵活性的同时更有效地进行图像建模。此外,DART可以在统一模型中无缝地结合文本和图像数据进行训练,表现出类条件文本到图像生成任务的竞争力。通过这一统一框架,DART为可扩展的高质量图像合成树立了新标杆。

   地址:https://arxiv.org/pdf/2410.08159


20. 大模型在(多轮)代码生成中的推理能力研究

   标题:What Makes Large Language Models Reason in (Multi-Turn) Code Generation?

   机构:Meta AI

   关键词:大型语言模型、代码生成、提示策略、自动多轮提示

   作者:Kunhao Zheng,  Juliette Decugis,  Jonas Gehring

   分析:论文研究大型语言模型(LLM)在代码生成中的推理能力。通过一系列实验,探讨了不同提示策略对模型性能的影响,特别是自动多轮提示。研究还包括跨不同模型家族和规模的模型性能评估,以及如何通过微调使模型内化推理过程,提高多轮代码生成性能和可扩展性。

   地址:https://arxiv.org/pdf/2410.08105


21. Rewarding Progress:扩展大模型推理验证器以进行LLM推理

   标题:Rewarding Progress: Scaling Automated Process Verifiers for LLM Reasoning

   机构:谷歌研究院、卡内基梅隆大学、Google DeepMind

   关键词:大型语言模型、过程奖励模型、推理验证器、奖励模型

   作者:Amrith Setlur,  Chirag Nagpal,  Adam Fisch

   分析:一种改进大型语言模型推理的有希望的方法是使用过程奖励模型(PRMs)。PRMs在多步推理轨迹的每一步提供反馈,可能比仅在最后一步提供结果奖励模型(ORMs)改进预测结果的信用分配。然而,收集密集的每步人工标签并不可扩展,从自动标记数据训练PRMs迄今为止已导致有限的增益。为了通过在PRMs上运行搜索来改进基础策略或将其用作强化学习(RL)的密集奖励,该论文问道:“该论文应该如何设计过程奖励?”该论文的关键洞察是,为了有效,步骤级别的奖励应该衡量进展:在采取步骤之前和之后产生正确响应的未来可能性的变化,对应于强化学习中步骤级别优势的概念。至关重要的是,这种进展应在与基础策略不同的证明者策略下进行测量。该论文从理论上确定了优秀证明者的范围,该论文的结果表明,从这样的证明者优化过程奖励可以提高测试时搜索中的探索性以及在线RL。事实上,该论文的特征化表明,较弱的证明者策略可以大大改善较强的基础策略,这该论文在实践中也观察到了。该论文通过训练过程优势验证器(PAVs)来预测在这样的证明者下进展的情况,并表明,与ORMs相比,测试时针对PAVs的搜索准确率提高了8%以上,计算效率提高了1.5-5倍。使用PAVs进行在线RL使该论文实现了第一个具有5-6倍样本效率提高和6%准确性提高的结果,超过了ORMs。

   地址:https://arxiv.org/pdf/2410.08146


22. 洞察胜于视觉?探索多模态大模型中的视觉-知识冲突

   标题:Insight Over Sight? Exploring the Vision-Knowledge Conflicts in Multimodal LLMs

   关键词:多模态大语言模型、视觉-知识冲突、Focus-on-Vision、模型评估

   作者:Xiaoyuan Liu,  Wenxuan Wang,  Youliang Yuan

   分析:该论文探讨了多模态大语言模型(MLLMs)中常识级视觉-知识冲突的问题,其中视觉信息与模型内部常识知识相矛盾。为了研究这一问题,论文提出了一个自动管道,并辅以人工质量控制,以建立一个旨在模拟和评估MLLMs中冲突的基准。使用该管道,研究者创建了一个包括374张原创图像和1,122对高质量问题-答案(QA)的基准。该基准涵盖了两种冲突目标和三个问题难度级别,提供了一个全面的评估工具。通过这个基准,他们评估了九种代表性MLLMs的冲突解决能力,发现过分依赖文本查询。基于这些发现,他们提出了一种新的提示策略“视觉优先”(FoV),显著提高了MLLMs优先考虑视觉数据而非冲突文本知识的能力。详细的分析和新提出的策略显著推进了对MLLMs中视觉-知识冲突的理解和缓解。

   地址:https://arxiv.org/pdf/2410.08145


23. DICE:应用于多项扩散和遮罩生成模型的革新策略

   标题:DICE: Discrete Inversion Enabling Controllable Editing for Multinomial Diffusion and Masked Generative Models

   机构:罗格斯大学、麻省理工学院、Google DeepMind

   关键词:离散扩散模型、可控编辑、DICE技术、数据重建

   作者:Xiaoxiao He,  Ligong Han,  Quan Dao

   分析:这篇论文介绍了一种名为DICE的新技术,该技术旨在解决离散扩散模型在受控内容编辑方面的局限性。通过反向扩散过程中记录噪声序列和遮罩模式,DICE实现了离散数据的精确重建和灵活编辑,无需预设的遮罩或注意力操纵。这项技术在图像和文本领域都表现出了有效性,并在VQ-Diffusion、Paella和RoBERTa等模型上得到了验证。DICE在保持高数据保真度的同时,提高了编辑能力,为离散空间的精细内容操作提供了新的机会。

   地址:https://arxiv.org/pdf/2410.08207

   代码:https://hexiaoxiao-cs.github.io/DICE/


24. 基于Masked Generative Prior的世界模型序列建模能力提升研究

   标题:Masked Generative Priors Improve World Models Sequence Modelling Capabilities

   机构:东京大学、新加坡国立大学、Google DeepMind

   关键词:Masked Generative Prior、世界模型序列建模、强化学习、Transformer模型

   作者:Cristian Meo,  Mircea Lica,  Zarif Ikram

   分析:论文使用基于Masked Generative Prior的技术改进了世界模型的序列建模能力。研究采用了一种新的架构GIT-STORM,它在自我监督下训练生成环境序列模型,并在强化学习任务中取得了显著的性能提升。此外,论文首次将Transformer世界模型应用于连续动作环境,为解决该问题采用了状态混合器函数集成潜在状态表征和动作,验证了其在处理连续控制任务中的有效性。

   地址:https://arxiv.org/pdf/2410.07836


25. 基于解剖结构感知的扩散模型多类别手术数据集合成

   标题:Synthesizing Multi-Class Surgical Datasets with Anatomy-Aware Diffusion Models

   机构:FAIR

   关键词:解剖结构感知、扩散模型、多类别手术数据集、合成数据集

   作者:Danush Kumar Venkatesh,  Dominik Rivoir,  Micha Pfeiffer

   分析:论文提出了一种利用扩散模型生成多类别手术数据集的方法,包括解剖结构感知的模型训练、器官结构保持的推理管道以及合成数据集的构建。该方法解决了手术场景中多类别(如器官)标注数据难以获取和生成的问题,提高了分割性能。

   地址:https://arxiv.org/pdf/2410.07753

   代码:https://gitlab.com/nct_tso_public/muli-class-image-synthesis


26. DA-Code: 大模型在基于代理的数据科学任务中的能力评估

   标题:DA-Code: Agent Data Science Code Generation Benchmark for Large Language Models

   机构:中国科学院大学、微软亚洲研究院、上海AI实验室

   作者:Yiming Huang,  Jianwen Luo,  Yan Yu

   分析:该论文提出了DA-Code,一个专门用于评估大型语言模型在基于代理的数据科学任务上能力的标准。这个基准包括三个核心元素:挑战性的任务,基于真实且多样化的数据,以及使用复杂的数据科学编程语言解决问题。虽然当前最佳的大型语言模型在这个基准上的性能只有30.5%,但仍有提升的空间。

   地址:https://arxiv.org/pdf/2410.07331

   代码:https://da-code-bench.github.io](https://da-code-bench.github.io)


27. 识别可追溯文本生成中的事实不一致

   标题:Localizing Factual Inconsistencies in Attributable Text Generation

   机构:谷歌研究院

   关键词:事实不一致、 hallucinations、问答对、Argument

   作者:Arie Cattan,  Paul Roit,  Shiyue Zhang

   分析:这篇论文提出了一种新的方法QASemConsistency,用于在模型生成的文本中精确地定位错误,尤其是指 hallucinations(虚构内容)。通过将生成的文本分解为最小化的涉及谓词和Argument的命题,即简单的问答对(QA对),并对每个QA对是否被可信赖的参考文本支持进行评估。这种方法可以有效地定位那些不被支持的信息。论文通过收集细粒度的矛盾错误的人为标注,证明了QASemConsistency方法的效用,并且实现了自动检测局部事实不一致的方法,无论是通过有监督的涵盖模型还是开源LLM(大语言模型)。

   地址:https://arxiv.org/pdf/2410.07473


28. 生成式图像模型的不可检测水印

   标题:An undetectable watermark for generative image models

   机构:UC伯克利分校

   关键词:生成式图像模型、不可检测水印、错误纠正码

   作者:Sam Gunn,  Xuandong Zhao,  Dawn Song

   分析:本文提出了一种对生成式图像模型进行不可检测水印的方法。通过使用伪随机错误纠正码选择扩散模型的初始潜变量,保证了水印的不可检测性和鲁棒性。该论文的水印在实验中证明了其质量保持和鲁棒性,与该论文测试的所有先前方案相比,不会降低图像质量。此外,该论文的水印具有较强的抗攻击能力,即使在不进行水印移除攻击的情况下,现有的攻击也无法在不影响图像质量的情况下移除该论文的水印。该论文发现,该论文的水印可以稳健地编码512位,而在未遭受水印移除攻击时,最多可编码2500位。

   地址:https://arxiv.org/pdf/2410.07369

   代码:https://github.com/XuandongZhao/PRC-Watermark


29. PointOBB-v2:面向更简单、更快、更强的单点监督定向目标检测

   标题:PointOBB-v2: Towards Simpler, Faster, and Stronger Single Point Supervised Oriented Object Detection

   机构:清华大学、东南大学、武汉大学

   关键词:单点监督定向目标检测、类别概率图、主成分分析、分离机制

   作者:Botao Ren,  Xue Yang,  Yi Yu

   分析:论文提出了一种名为PointOBB-v2的方法,该方法通过单点监督生成伪旋转框,无需依赖任何先验。它通过非均匀正负采样训练网络生成类别概率图,并使用主成分分析准确估计物体方向和边界。此外,论文还引入了一种分离机制,解决了在高密度场景下由重叠引起的混淆问题。与之前的先进方法相比,PointOBB-v2在训练速度和准确性方面都有显著提高。

   地址:https://arxiv.org/pdf/2410.08210


30. 增强安全性的大模型微调框架SEAL

   标题:SEAL: Safety-enhanced Aligned LLM Fine-tuning via Bilevel Data Selection

   机构:IBM研究院

   关键词:SEAL框架、大语言模型微调、数据排名、安全性增强

   作者:Han Shen,  Pin-Yu Chen,  Payel Das

   分析:论文提出了一种名为SEAL的框架,旨在增强大型语言模型(LLM)微调过程中的安全性。该框架通过两级优化学习数据排名器,以提升安全且高质量的数据,并降低不安全或低质量数据的排名。使用SEAL训练的模型在多个基准测试中表现出卓越的性能,与随机选择相比,在Llama-3-8b-Instruct和Merlinite-7b模型上的胜率分别提高了8.5%和9.7%。

   地址:https://arxiv.org/pdf/2410.07471

   代码:https://github.com/hanshen95/SEAL


31. ACDC: 自动化创建数字同胞以增强策略学习鲁棒性

   标题:ACDC: Automated Creation of Digital Cousins for Robust Policy Learning

   机构:斯坦福大学

   关键词:数字同胞、策略学习、模型鲁棒性、模拟与真实环境的桥梁

   地址:https://arxiv.org/pdf/2410.07408

   代码:https://digital-cousins.github.io/


32. RDT-1B:扩散模型在双肢操作中的应用

   标题:RDT-1B: a Diffusion Foundation Model for Bimanual Manipulation

   机构:清华大学、麻省理工学院

   关键词:机器人双肢操作、扩散模型、多模态性、数据稀缺问题

   地址:https://arxiv.org/pdf/2410.07864

   代码:https://rdt-robotics.github.io/rdt-robotics/


33. Rectified Diffusion:在改向流中直线性并非必要

   标题:Rectified Diffusion: Straightness Is Not Your Need in Rectified Flow

   机构:北京大学、普林斯顿大学

   关键词:改向扩散、扩散模型、生成速度、模型训练

   地址:https://arxiv.org/pdf/2410.07303

   代码:https://github.com/G-U-N/Rectified-Diffusion


34. 视觉砂纸板:  enabling global reasoning in vision

   标题:Visual Scratchpads: Enabling Global Reasoning in Vision

   机构:Apple

   关键词:视觉砂纸板、全局推理、现代视觉模型、学习效率

   地址:https://arxiv.org/pdf/2410.08165


35. CoPESD:用于训练大视觉语言模型辅助内镜黏膜下剥离的多层次手术运动数据集

   标题:CoPESD: A Multi-Level Surgical Motion Dataset for Training Large Vision-Language Models to Co-Pilot Endoscopic Submucosal Dissection

   机构:山东大学、香港中文大学、上海交通大学

   关键词:大视觉语言模型、ESD手术、多层次的手术运动数据、手术自动化

   地址:https://arxiv.org/pdf/2410.07540

   代码:https://github.com/gkw0010/CoPESD


36. LatteCLIP: 无监督CLIP微调通过LMM合成文本

   标题:LatteCLIP: Unsupervised CLIP Fine-Tuning via LMM-Synthetic Texts

   机构:Amazon

   关键词:无监督微调、CLIP、LMMs、合成文本

   地址:https://arxiv.org/pdf/2410.08211


37. GenARM:奖励引导生成与基于自回归奖励模型的测试时对齐技术

   标题:GenARM: Reward Guided Generation with Autoregressive Reward Model for Test-time Alignment

   机构:马里兰大学、麻省理工学院

   关键词:GenARM、自回归奖励模型、大型语言模型、测试时对齐

   地址:https://arxiv.org/pdf/2410.08193


38. MRAG-Bench:面向检索增强多模态模型的视觉中心评价

   标题:MRAG-Bench: Vision-Centric Evaluation for Retrieval-Augmented Multimodal Models

   机构:加州大学、斯坦福大学

   关键词:多模态模型评估、视觉信息增强、检索增强生成基准测试

   地址:https://arxiv.org/pdf/2410.08182


39. 基于多层次记忆的在文档级别的在线翻译代理DelTA的研究

   标题:DelTA: An Online Document-Level Translation Agent Based on Multi-Level Memory

   机构:腾讯

   关键词:DelTA、文档级别翻译、多层次记忆结构、大型语言模型

   地址:https://arxiv.org/pdf/2410.08143

   代码:https://github.com/YutongWang1216/DocMTAgent


40. 基于梯度神经的解释

   标题:Unlearning-based Neural Interpretations

   机构:牛津大学、麻省理工学院

   关键词:基于梯度、神经网络、UNI、特征重要性

   地址:https://arxiv.org/pdf/2410.08069


41. LLM-to-LLM提示注入:多智能体系统中的提示感染

   标题:Prompt Infection: LLM-to-LLM Prompt Injection within Multi-Agent Systems

   机构:伦敦大学、斯坦福大学

   关键词:LLM攻击、多智能体系统、提示注入、防御机制

   地址:https://arxiv.org/pdf/2410.07283


42. 基于LLM的多智能体系统优化

   标题:Optima: Optimizing Effectiveness and Efficiency for LLM-Based Multi-Agent System

   机构:清华大学、北京邮电大学

   关键词:大语言模型多智能体系统优化、协作问题解决、通信效率、任务效率、奖励模型、强化学习

   地址:https://arxiv.org/pdf/2410.08115

   代码:https://chenweize1998.github.io/optima-project-page)


43. Scaling Up Your Kernels:现代卷积神经网络中大型卷积核的设计及其通用表示

   标题:Scaling Up Your Kernels: Large Kernel Design in ConvNets towards Universal Representations

   机构:香港中文大学、腾讯AI实验室

   关键词:大型卷积核、UniRepLKNet、通用表示

   地址:https://arxiv.org/pdf/2410.08049

   代码:https://github.com/AILab-CVC/UniRepLKNet


44. Explaining Hypergraph Neural Networks:从局部解释到全局概念解释

   标题:Explaining Hypergraph Neural Networks: From Local Explanations to Global Concepts

   机构:剑桥大学、斯坦福大学

   关键词:超图神经网络、解释性、模型归因、全局解释

   地址:https://arxiv.org/pdf/2410.07764


45. SPA:3D空间感知使具身表示有效

   标题:SPA: 3D Spatial-Awareness Enables Effective Embodied Representation

   机构:上海AI实验室

   关键词:具身AI、3D空间感知、表示学习、ESPAN

   地址:https://arxiv.org/pdf/2410.08208

   代码:https://haoyizhu.github.io/spa/


46. 大型视觉语言模型的后训练量化研究

   标题:Q-VLM: Post-training Quantization for Large Vision-Language Models

   机构:清华大学、南洋理工大学

   关键词:视觉语言模型、后训练量化、跨层依赖性、多模态推理

   地址:https://arxiv.org/pdf/2410.08119

   代码:https://github.com/ChangyuanWang17/QVLM


47. 隐藏随机数生成与GEMM融合的dropout来降低Flash-Attention的成本

   标题:Reducing the Cost of Dropout in Flash-Attention by Hiding RNG with GEMM

   机构:英伟达、普林斯顿大学

   关键词:Flash-Attention、Dropout、Random Number Generation (RNG)、GEMM

   地址:https://arxiv.org/pdf/2410.07531


48. 进化对比蒸馏用于语言模型对齐

   标题:Evolutionary Contrastive Distillation for Language Model Alignment

   机构:Amazon

   关键词:进化对比蒸馏、语言模型、复杂指令、对比学习

   地址:https://arxiv.org/pdf/2410.07513


49. 从Web视频中学习生成多样化行人运动

   标题:Learning to Generate Diverse Pedestrian Movements from Web Videos with Noisy Labels

   机构:UC洛杉矶分校

   地址:https://arxiv.org/pdf/2410.07500

   代码:https://genforce.github.io/PedGen/


50. 开关稀疏自编码器的高效字典学习

   标题:Efficient Dictionary Learning with Switch Sparse Autoencoders

   机构:牛津大学、麻省理工学院

   关键词:Switch Sparse Autoencoders、模型结构改进、特征提取

   地址:https://arxiv.org/pdf/2410.08201


51. 当前语言模型是否支持R编程语言的代码智能?

   标题:Do Current Language Models Support Code Intelligence for R Programming Language?

   机构:斯坦福大学、英属哥伦比亚大学

   关键词:R编程语言、代码智能、模型评估、数据集构建

   地址:https://arxiv.org/pdf/2410.07793


52. ToMiE:面向增强SMPL骨架模块化增长的3D人体可动画服装研究

   标题:ToMiE: Towards Modular Growth in Enhanced SMPL Skeleton for 3D Human with Animatable Garments

   机构:东京大学、上海AI实验室

   关键词:3D人体建模、复杂服装、SMPL骨架、模块化增长策略

   地址:https://arxiv.org/pdf/2410.08082


53. 基于软LoRA和身份混合的SLIM:让LLM学习更多、遗忘更少

   标题:SLIM: Let LLM Learn More and Forget Less with Soft LoRA and Identity Mixture

   机构:腾讯、中国东北大学

   关键词:LLM、Soft LoRA、Identity Mixture、参数高效微调

   地址:https://arxiv.org/pdf/2410.07739


54. AgentBank:通过在50000+的交互轨迹上微调实现通用LLM代理

   标题:AgentBank: Towards Generalized LLM Agents via Fine-Tuning on 50000+ Interaction Trajectories

   机构:北京大学

   地址:https://arxiv.org/pdf/2410.07706


55. 多角度反事实学习应用于内容质量评估

   标题:Multi-Facet Counterfactual Learning for Content Quality Evaluation

   机构:腾讯、中国科学院大学

   关键词:多角度反事实学习、内容质量评估、对比学习、监督学习

   地址:https://arxiv.org/pdf/2410.07693


56. SAGE: 可扩展的实际证据评估对于大型稀疏自动编码器

   标题:SAGE: Scalable Ground Truth Evaluations for Large Sparse Autoencoders

   机构:牛津大学

   关键词:稀疏自动编码器、实际证据评估、模型解释性、大模型

   地址:https://arxiv.org/pdf/2410.07456


57. MoE++:利用零计算专家加速混合专家方法

   标题:MoE++: Accelerating Mixture-of-Experts Methods with Zero-Computation Experts

   机构:北京大学、鹏城实验室

   关键词:MoE++、混合专家方法、零计算专家、模型结构改进

   地址:https://arxiv.org/pdf/2410.07348


58. MMHead:朝向精细的多模态3D面部动画

   标题:MMHead: Towards Fine-grained Multi-modal 3D Facial Animation

   机构:上海交通大学、南洋理工大学

   关键词:多模态、3D面部动画、文本驱动

   地址:https://arxiv.org/pdf/2410.07757


59. MGMapNet:多粒度表示学习用于端到端矢量高清地图构建

   标题:MGMapNet: Multi-Granularity Representation Learning for End-to-End Vectorized HD Map Construction

   机构:百度

   关键词:MGMapNet,多粒度表示学习,矢量高清地图,实例级查询,点级查询

   地址:https://arxiv.org/pdf/2410.07733


60. OneNet:一种无需微调的大模型驱动的few-shot实体链接到框架

   标题:OneNet: A Fine-Tuning Free Framework for Few-Shot Entity Linking via Large Language Model Prompting

   机构:中国科学技术大学

   关键词:一言通、few-shot、大型语言模型、实体链接到

   地址:https://arxiv.org/pdf/2410.07549


61. 综合在线训练与部署的脉冲神经网络

   标题:Comprehensive Online Training and Deployment for Spiking Neural Networks

   机构:北京大学

   关键词:脉冲神经网络、在线训练、EM-PF模型、时间梯度分离

   地址:https://arxiv.org/pdf/2410.07547


62. 全秩不再:现代语音识别模型的低秩权重训练

   标题:Full-Rank No More: Low-Rank Weight Training for Modern Speech Recognition Models

   机构:牛津大学、帝国理工学院

   关键词:低秩权重训练、语音识别模型、Conformer模型、性能提升

   地址:https://arxiv.org/pdf/2410.07771


63. 大模型在定性研究中的应用:数据正义的探讨

   标题:Large Language Models in Qualitative Research: Can We Do the Data Justice?

   机构:康奈尔大学、罗格斯大学、密歇根大学

   关键词:大型语言模型、定性研究、数据正义

   地址:https://arxiv.org/pdf/2410.07362


64. HybridBooth:混合提示反转法,实现高效的主题驱动生成

   标题:HybridBooth: Hybrid Prompt Inversion for Efficient Subject-Driven Generation

   机构:南京大学

   关键词:HybridBooth、混合提示反转法、文本到图像扩散模型、主题驱动生成

   地址:https://arxiv.org/pdf/2410.08192


65. 基于多智能体的新闻生成与反馈模拟系统

   标题:AI-Press: A Multi-Agent News Generating and Feedback Simulation System Powered by Large Language Models

   机构:复旦大学

   关键词:大语言模型、多智能体协作、新闻生成、反馈模拟

   地址:https://arxiv.org/pdf/2410.07561


66. CrossQuant:更小的量化核对大模型的精确压缩

   标题:CrossQuant: A Post-Training Quantization Method with Smaller Quantization Kernel for Precise Large Language Model Compression

   机构:天津大学

   关键词:大语言模型压缩、激活量化、量化核、模型精度

   地址:https://arxiv.org/pdf/2410.07505


67. BA-Net:深度神经网络中的桥梁注意力机制

   标题:BA-Net: Bridge Attention in Deep Neural Networks

   机构:中国科学院大学

   关键词:桥梁注意力机制、深度神经网络、卷积层协同、信息交换优化

   地址:https://arxiv.org/pdf/2410.07860


68. 揭示大模型编辑中的过拟合问题

   标题:Uncovering Overfitting in Large Language Model Editing

   机构:山东大学、北京邮电大学、中国科学院自动化研究所

   关键词:大型语言模型编辑、过拟合现象、知识回忆机制、学习推理(LTI)策略

   地址:https://arxiv.org/pdf/2410.07819


69. Teddy:通过泰勒近似匹配的效率大型数据集蒸馏

   标题:Teddy: Efficient Large-Scale Dataset Distillation via Taylor-Approximated Matching

   机构:新加坡国立大学

   关键词:泰勒近似、数据集蒸馏、模型池、效率提升

   地址:https://arxiv.org/pdf/2410.07579

   代码:https://github.com/Lexie-YU/Teddy


70. MKGL:精通三字词语言模型

   标题:MKGL: Mastery of a Three-Word Language

   机构:浙江大学、曼彻斯特大学、北京邮电大学

   关键词:大型语言模型、知识图谱、KGL语言、上下文理解

   地址:https://arxiv.org/pdf/2410.07526


71. 评估大模型中的记忆

   标题:Assessing Episodic Memory in LLMs with Sequence Order Recall Tasks

   机构:纽约大学、普林斯顿大学、德克萨斯州奥斯汀大学

   关键词:大型语言模型、排序任务、事件记忆

   地址:https://arxiv.org/pdf/2410.08133


72. 语言信息驱动的多语言指令微调:是否存在最佳语言集进行微调?

   标题:Linguistically-Informed Multilingual Instruction Tuning: Is There an Optimal Set of Languages to Tune?

   关键词:多语言模型、指令微调、语言选择、性能提升

   地址:https://arxiv.org/pdf/2410.07809

   代码:https://github.com/GGLAB-KU/ling-informed-mit


73. 从对数几率到层次结构:简单的层次聚类方法

   标题:From Logits to Hierarchies: Hierarchical Clustering made Simple

   机构:苏黎世联邦理工学院

   关键词:层次聚类、预训练模型、计算效率、逻辑概率

   地址:https://arxiv.org/pdf/2410.07858


74. GameTraversalBenchmark:通过遍历二维游戏地图评估大模型的规划能力

   标题:GameTraversalBenchmark: Evaluating Planning Abilities Of Large Language Models Through Traversing 2D Game Maps

   机构:纽约大学

   关键词:大型语言模型、规划能力、GameTraversalBenchmark、评估指标

   地址:https://arxiv.org/pdf/2410.07765

   代码:https://github.com/umair-nasir14/Game-Traversal-Benchmark


75. IntrinsicVoice:赋予LLM内在实时语音交互能力

   标题:IntrinsicVoice: Empowering LLMs with Intrinsic Real-time Voice Interaction Abilities

   关键词:LLM、实时语音交互、多模态、数据集构建

   地址:https://arxiv.org/pdf/2410.08035

   代码:https://instrinsicvoice.github.io/


76. 语言引导的联合音频视频编辑

   标题:Language-Guided Joint Audio-Visual Editing via One-Shot Adaptation

   机构:罗切斯特大学

   关键词:语言引导、联合音频视频编辑、生成扩散模型、跨模态语义增强

   地址:https://arxiv.org/pdf/2410.07463

   代码:https://liangsusan-git.github.io/project/avedit/


77. Mono-InternVL:从自生视觉预训练视角探索大型单体多模态语言模型的边界

   标题:Mono-InternVL: Pushing the Boundaries of Monolithic Multimodal Large Language Models with Endogenous Visual Pre-training

   关键词:大型语言模型、多模态任务、视觉预训练、集成模型

   地址:https://arxiv.org/pdf/2410.08202


78. HARIVO:利用文本到图像模型进行视频生成的研究

   标题:HARIVO: Harnessing Text-to-Image Models for Video Generation

   关键词:文本到图像模型、视频生成、架构创新、损失函数

   地址:https://arxiv.org/pdf/2410.07763

   代码:https://kwonminki.github.io/HARIVO


79. Executing Arithmetic:通过微调大模型将其作为图灵机器

   标题:Executing Arithmetic: Fine-Tuning Large Language Models as Turing Machines

   关键词:大型语言模型、算术执行、图灵机器、计算逻辑

   地址:https://arxiv.org/pdf/2410.07896


80. 无监督视觉基础下的新兴像素定位在大规模多模态模型中的应用

   标题:Emerging Pixel Grounding in Large Multimodal Models Without Grounding Supervision

   关键词:大规模多模态模型、视觉定位、无监督训练、像素级分段

   地址:https://arxiv.org/pdf/2410.08209

   代码:https://groundLMM.github.io


81. 通用可动画高斯头像化身技术

   标题:Generalizable and Animatable Gaussian Head Avatar

   关键词:Gaussian头头像化身、双提升方法、身份重建、表情控制

   地址:https://arxiv.org/pdf/2410.07971

   代码:https://github.com/xg-chu/GAGAvatar


82. NusaMT-7B:数据稀少的印度尼西亚语言机器翻译中的大模型应用

   标题:NusaMT-7B: Machine Translation for Low-Resource Indonesian Languages with Large Language Models

   关键词:大型语言模型、机器翻译、低资源语言、数据稀少

   地址:https://arxiv.org/pdf/2410.07830


83. 多语言能力提升的大模型的提取和迁移能力研究

   标题:Extracting and Transferring Abilities For Building Multi-lingual Ability-enhanced Large Language Models

   关键词:多语言能力迁移、大型语言模型、能力提取与迁移、语言无关权重

   地址:https://arxiv.org/pdf/2410.07825

   代码:https://github.com/RUCAIBox/MAET


84. News Reporter:用于电视广播新闻的跨语言大模型框架

   标题:News Reporter: A Multi-lingual LLM Framework for Broadcast T.V News

   机构:华东师范大学

   关键词:大型语言模型、电视新闻、问答对、语境化

   地址:https://arxiv.org/pdf/2410.07520


85. 领域专家模型的混合:MoDEM

   标题:MoDEM: Mixture of Domain Expert Models

   机构:墨尔本大学

   关键词:MoDEM、领域专家模型、大型语言模型、性能提升

   地址:https://arxiv.org/pdf/2410.07490


86. RealVul: 我们能用LLM检测Web应用漏洞吗?

   标题:RealVul: Can We Detect Vulnerabilities in Web Applications with LLM?

   关键词:PHP漏洞检测、LLM、框架设计、数据合成

   地址:https://arxiv.org/pdf/2410.07573


87. VerifierQ:利用基于Q学习的验证器增强大模型的测试时间计算

   标题:VerifierQ: Enhancing LLM Test Time Compute with Q-Learning-based Verifiers

   关键词:大型语言模型,Q学习,验证器,强化学习,推理能力

   地址:https://arxiv.org/pdf/2410.08048


88. CountMamba:探索多方向选择性状态空间模型进行植物计数

   标题:CountMamba: Exploring Multi-directional Selective State-Space Models for Plant Counting

   地址:https://arxiv.org/pdf/2410.07528


89. 规则学习实现世界对齐,提高基于世界模型的LLM代理性能

   标题:WALL-E: World Alignment by Rule Learning Improves World Model-based LLM Agents

   关键词:大型语言模型(LLM)、规则学习、世界对齐、模型预测控制(MPC)

   地址:https://arxiv.org/pdf/2410.07484


90. SparseGrad:一种针对MLP层高效微调的选择性方法

   标题:SparseGrad: A Selective Method for Efficient Fine-tuning of MLP Layers

   关键词:SparseGrad、MLP层、参数高效微调、模型性能优化

   地址:https://arxiv.org/pdf/2410.07383


91. 系统2推理:通过通用性和适应性

   标题:System-2 Reasoning via Generality and Adaptation

   关键词:系统2推理、通用性、适应性、大模型

   地址:https://arxiv.org/pdf/2410.07866


92. 大模型推理的改进

   标题:Enhancing Language Model Reasoning via Weighted Reasoning in Self-Consistency

   关键词:大型语言模型、自一致性框架、封闭式问答

   地址:https://arxiv.org/pdf/2410.07839


93. MinorityPrompt:通过提示优化从文本到图像

   标题:MinorityPrompt: Text to Minority Image Generation via Prompt Optimization

   关键词:文本到图像生成,在线提示优化,少数样本生成,模型能力提高

   地址:https://arxiv.org/pdf/2410.07838


94. 大内存块寄存器数组(BRAM)是限制吗?打破神话,塑造标准,构建可扩展的PIM加速器

   标题:The BRAM is the Limit: Shattering Myths, Shaping Standards, and Building Scalable PIM Accelerators

   地址:https://arxiv.org/pdf/2410.07546


95. Efficiently Learning at Test-Time:LLM的主动精细调整

   标题:Efficiently Learning at Test-Time: Active Fine-Tuning of LLMs

   关键词:高效学习、模型精细调整、主动学习、LLM

   地址:https://arxiv.org/pdf/2410.08020


96. 条件重叠专家模型

   标题:More Experts Than Galaxies: Conditionally-overlapping Experts With Biologically-Inspired Fixed Routing

   关键词:条件重叠专家模型、深度学习、稀疏神经网络、生物启发

   地址:https://arxiv.org/pdf/2410.08003


97. 无监督数据验证方法提高模型训练效率

   标题:Unsupervised Data Validation Methods for Efficient Model Training

   关键词:无监督数据验证、机器学习、低资源语言、自然语言处理

   地址:https://arxiv.org/pdf/2410.07880


98. 人工智能生成内容在维基百科的兴起

   标题:The Rise of AI-Generated Content in Wikipedia

   地址:https://arxiv.org/pdf/2410.08044


今天的论文分享完啦,欢迎👏🏻👏🏻明天再来~

AI for Research
每天分享最新最热的Arxiv论文、一起来关注大模型、AIGC、AGI
 最新文章