前言:平淡无奇的一天又来了,今天要分享的内容主要是关于大模型、大语言模型、模型结构改进的,喜欢的小伙伴赶紧去阅读相关论文吧。
1. CPL:关键规划步骤学习提升LLM在推理任务中的泛化能力
标题:CPL: Critical Planning Step Learning Boosts LLM Generalization in Reasoning Tasks
机构:北京大学、微软亚洲研究院
相关领域:模型结构改进、模型评估、奖励模型、指令微调
作者:Tianlong Wang, Xueting Han, Jing Bai
分析:这篇论文提出了一种名为CPL(关键规划步骤学习)的方法,用于提高大型语言模型(LLM)在多样化推理任务中的泛化能力。它通过利用蒙特卡洛树搜索(MCTS)来探索多步推理任务中的不同规划步骤,从而学习到基于长期结果的步骤级规划偏好,增强了模型的规划能力和推理能力。此外,该方法还提出了Step-APO,通过集成MCTS获得的步骤级偏好对的优势评估,以改进模型学习关键中间规划步骤的能力。实验结果表明,该方法在多个任务上都有显著的性能提升。
地址:https://arxiv.org/pdf/2409.08642
2. Think Twice Before You Act:使用MCMC改进逆问题求解
标题:Think Twice Before You Act: Improving Inverse Problem Solving With MCMC
机构:加州大学、Google、Deepmind
相关领域:模型结构改进、预训练
作者:Yaxuan Zhu, Zehao Dou, Haoxin Zheng
分析:这篇论文提出了一种基于退火马尔可夫链蒙特卡罗(Annealed MCMC)的推理算法,旨在解决使用预训练扩散模型解决逆问题时存在的缺陷。论文通过定义一系列中间分布,鼓励样本在每个分布阶段紧密跟随,进而减少累积误差,并在各种逆问题中表现优异。
地址:https://arxiv.org/pdf/2409.08551
3. AIPO: 改进迭代偏好优化训练目标
标题:AIPO: Improving Training Objective for Iterative Preference Optimization
机构:字节跳动、中国科学院大学
相关领域:模型结构改进
作者:Yaojie Shen, Xinyao Wang, Yulei Niu
分析:论文研究了迭代偏好优化过程中出现的偏好长度问题,并提出了一种新的训练目标,通过实验验证了方法的先进性,实现和模型将开源。
地址:https://arxiv.org/pdf/2409.08845
代码:https://github.com/bytedance/AIPO
4. 如何让人类更有效地指导大模型
标题:What You Say = What You Want? Teaching Humans to Articulate Requirements for LLMs
机构:密歇根大学、哥伦比亚大学、卡内基梅隆大学
相关领域:模型结构改进、预训练、指令微调、奖励模型
作者:Qianou Ma, Weirui Peng, Hua Shen
分析:该研究提出了一种新的教学范式——需求导向的提示工程(Requirement-Oriented Prompt Engineering,简称ROPE)。该方法通过强调在提示过程中明确、完整地表达需求,使人类能够更有效地指导大型语言模型。该论文提供了一套评估套件和训练程序,以帮助人们提高与大型语言模型协作的能力。在一项对30名新手的研究中,该论文发现,通过需求导向的训练,新手的提示性能提高了一倍,明显优于传统的提示工程训练和提示优化。此外,该论文的工作还表明,高质量的大型语言模型输出与输入需求的质量有着直接的关系。
地址:https://arxiv.org/pdf/2409.08775
5. 借助隐藏链式思维解码加速和大模型推理提升
标题:Expediting and Elevating Large Language Model Reasoning via Hidden Chain-of-Thought Decoding
机构:麻省理工学院
相关领域:模型结构改进
作者:Tianqiao Liu, Zui Chen, Zitao Liu
分析:本文提出了一种通过语义对齐压缩链式思维(CoT)过程的方法,以在推理过程中提高效率并保持CoT推理的好处。该方案包括辅助CoT模型,它学习生成与原始CoT输出语义对齐的紧凑特殊token表示。这种方法在三个挑战性领域中进行了测试,展示了与CoT基础相比,在解码速度上提供了至少1.5倍的改进,同时提高了任务的准确性。
地址:https://arxiv.org/pdf/2409.08561
6. 权重归一化(WeightNorm)的优化和泛化保证
标题:Optimization and Generalization Guarantees for Weight Normalization
机构:斯坦福大学、伊利诺伊大学
相关领域:模型结构改进、预训练
作者:Pedro Cisneros-Velarde, Zhijie Chen, Sanmi Koyejo
分析:这篇论文主要研究了深度神经网络中权重归一化的优化和泛化问题。通过理论分析,给出了权重归一化模型的Hessian矩阵的特征,并在此基础上建立了训练收敛保证;同时,利用权重归一化获得了一个与深度线性相关的泛化一致性边界。这些研究结果不仅有助于深入理解权重归一化的本质,也为深度学习模型的训练和优化提供了重要的理论指导。
地址:https://arxiv.org/pdf/2409.08935
7. InstantDrag:提高基于拖拽的图像编辑的交互性
标题:InstantDrag: Improving Interactivity in Drag-based Image Editing
机构:首尔国立大学
作者:Joonghyuk Shin, Daehyeon Choi, Jaesik Park
分析:拖拽式图像编辑因其交互性和精确度而受到了欢迎。然而,尽管文本到图像模型能在一秒内生成样本,但由于在保持图像内容的同时准确反映用户交互的挑战,拖拽编辑仍然滞后。一些现有的方法依赖于计算密集型的每张图片优化或复杂的引导方法,需要额外的输入,如可移动区域的遮罩和文本提示,从而牺牲了编辑过程的交互性。该论文提出了InstantDrag,一个无需优化的流程,增强交互性和速度,只需要一张图片和一个拖拽指令作为输入。InstantDrag由两个精心设计的网络组成:拖拽条件光流生成器(FlowGen)和光流条件扩散模型(FlowDiffusion)。InstantDrag通过将任务分解为运动生成和运动条件图像生成来学习基于拖拽的图像编辑在现实世界视频数据集的运动学动态,并通过面部视频数据集和一般场景的实验证明了InstantDrag能够在不使用遮罩或文本提示的情况下进行快速、逼真的编辑,这些结果突出了该论文的方法在处理基于拖拽的图像编辑时的效率,使其成为实时交互式应用的有前景的解决方案。
地址:https://arxiv.org/pdf/2409.08857
8. FP-VEC:利用高效向量添加实现大模型的指纹技术
标题:FP-VEC: Fingerprinting Large Language Models via Efficient Vector Addition
机构:浙江大学、香港浸会大学
相关领域:模型结构改进、模型评估
作者:Zhenhua Xu, Wenpeng Xing, Zhebo Wang
分析:为了解决大语言模型知识产权保护问题,这篇论文提出了一种名为FP-VEC的轻量级语言模型指纹技术。FP-VEC使用向量作为语言模型的指纹,通过简单的向量加法将指纹嵌入到模型中,实现了低成本、可伸缩的语言模型指纹保护。同时,该技术不影响模型的原始性能和行为。
地址:https://arxiv.org/pdf/2409.08846
9. 你的弱LLM其实是强大的教学者
标题:Your Weak LLM is Secretly a Strong Teacher for Alignment
相关领域:模型对齐, 语言模型, 自动反馈
作者:Leitian Tao, Yixuan Li
分析:论文探讨了利用弱大规模语言模型(LLM)进行模型对齐的策略。该研究发现,尽管弱LLM资源相对较少,但生成的反馈能接近或超越人类标注数据的水平,提出了一种成本效益高的对齐策略。研究还考察了模型规模对反馈效果的影响,表明模型小影响不大。这项工作提供了关于利用弱LLM进行模型调适新视角和方法。
地址:https://arxiv.org/pdf/2409.08813
10. Eir:泰医大模型
标题:Eir: Thai Medical Large Language Models
相关领域:模型结构改进、预训练、多模态
作者:Yutthakorn Thiprak, Rungtam Ngodngamthaweesuk, Songtam Ngodngamtaweesuk
分析:论文介绍了一个大型语言模型Eir Thai Medical LLM,具有8亿参数,专门为提高泰语医疗任务的准确性而设计。该模型旨在提供清晰、易于理解的答案,适用于医疗专业人士和患者,从而提高诊断和治疗效率。模型通过人类评估确保符合护理标准并给出客观答案。模型部署在医院内部网络,注重数据安全,采用加密和严格身份验证措施防止数据泄露和未经授权的访问。模型在多个医疗基准测试上表现优于其他开源大型语言模型和市面上的泰语大型语言模型。
地址:https://arxiv.org/pdf/2409.08523
11. 大模型在领域知识生成中的应用
标题:A RAG Approach for Generating Competency Questions in Ontology Engineering
相关领域:模型结构改进、预训练
作者:Xueli Pan, Jacco van Ossenbruggen, Victor de Boer
分析:这篇论文介绍了一种使用大型语言模型(LLM)进行领域知识生成的方法。传统的领域知识生成方法依赖于领域专家和知识工程师的劳动,耗时且耗力。然而,随着大型语言模型的发展,这种过程可以被自动化和增强。该论文提出了一种使用LLM从科学论文集合中自动生成领域知识的问题集(CQ)的方法,而不是使用现有的本体或知识图作为LLM的输入。通过在两个领域本体工程任务上使用GPT-4进行实验,并与由领域专家构建的对照组进行比较,该论文研究了不同数量的论文对RAG的影响以及LLM的温度设置。结果表明,与零样本提示相比,向RAG添加相关领域知识可以提高LLM在具体本体工程任务上生成CQ的表现。
地址:https://arxiv.org/pdf/2409.08820
12. 3D医学图像自回归预训练
标题:Autoregressive Sequence Modeling for 3D Medical Image Representation
相关领域:模型结构改进、预训练
作者:Siwen Wang, Churan Wang, Fei Gao
分析:这篇论文提出了一种新的3D医学图像表示学习方法。通过将不同空间、对比度和语义相关的3D医学图像视为序列中的视觉标记,并利用自回归的序列建模任务来预测序列中的下一个视觉标记,从而深入理解和融合3D医学图像中的上下文信息。此外,该方法还采用了随机启动策略以避免过度估计标记关系并增强学习的鲁棒性。实验结果表明,该方法在多个公共数据集上的性能优于其他方法。
地址:https://arxiv.org/pdf/2409.08691
13. 从单幅角色画制作3D动画的DrawingSpinUp
标题:DrawingSpinUp: 3D Animation from Single Character Drawings
机构:香港城市大学、香港科技大学
相关领域:模型动画生成
作者:Jie Zhou, Chufeng Xiao, Miu-Ling Lam
分析:DrawingSpinUp提出了一种新方法,能将单一角色画转化为逼真的3D动画,解决现有方法在表现力和几何精细度上的问题。它通过去除依赖视点的轮廓线和使用骨架细化算法优化线条代表的细长结构。实验证明,方法优于2D和3D动画方法,生成高质量的3D动画。
地址:https://arxiv.org/pdf/2409.08615
代码:https://lordliang.github.io/DrawingSpinUp
14. Adjoint Matching:通过记忆无关随机最优控制微调流程和扩散生成模型
标题:Adjoint Matching: Fine-tuning Flow and Diffusion Generative Models with Memoryless Stochastic Optimal Control
机构:FAIR
相关领域:模型结构改进、奖励模型、算法优化
作者:Carles Domingo-Enrich, Michal Drozdzal, Brian Karrer
分析:这篇论文提出了一种名为对偶匹配的新算法,它通过将随机最优控制问题转化为回归问题来改进动态生成模型。该研究旨在通过奖励微调改进Flow Matching和去噪扩散模型等生成模型,并提出了一种需要实施特定无记忆噪声计划的微调方法,以处理噪声变量与生成样本之间的依赖关系。该算法在提高奖励微调的一致性、现实感和泛化能力方面表现出优越性,同时保持了样本多样性。
地址:https://arxiv.org/pdf/2409.08861
15. Farmer.Chat: 农业中小规模农户的AI服务拓展
标题:Farmer.Chat: Scaling AI-Powered Agricultural Services for Smallholder Farmers
机构:微软研究院
作者:Namita Singh, Jacqueline Wang'ombe, Nereah Okanga
分析:这篇论文主要介绍了如何利用生成人工智能(Generative AI)来改善农业服务的效率和效果。传统的农业咨询服务通常依赖于人工代理人,但在面对规模化、时间敏感的问题时,这种方式的效果往往不尽人意。Farmer.Chat是一个基于生成人工智能的聊天机器人,旨在解决这些问题。它能够提供个性化、可靠的、与上下文相关的建议,克服了以往聊天机器人在确定性对话流、语言支持和非结构化数据处理方面的限制。该系统已在四个国家部署,吸引了超过15000名农民参与,回答了超过30万次查询。通过定量分析和定性见解的结合,该研究评估了Farmer.Chat在提高农业生产实践、增强信任度、提升响应质量和用户参与度方面的有效性。
地址:https://arxiv.org/pdf/2409.08916
16. RT-DETRv3:基于层次密集正向监督的实时端到端目标检测
标题:RT-DETRv3: Real-time End-to-End Object Detection with Hierarchical Dense Positive Supervision
机构:百度
相关领域:模型结构改进
作者:Shuo Wang, Chunlong Xia, Feng Lv
分析:这篇论文主要介绍了实时端到端目标检测器RT-DETRv3的发展。针对RT-DETR检测器训练不足和难以实现最优结果的问题,论文提出了基于层次密集正向监督的方法。通过引入CNN辅助分支和自注意力扰动学习策略,提高了模型的特征表示能力和训练效率。此外,论文还引入了共享权重解码器分支,以确保更高质量的地面对应查询。实验结果表明,RT-DETRv3在COCO val2017数据集上显著优于其他实时检测器,并实现了较高的准确率。
地址:https://arxiv.org/pdf/2409.08475
17. AI-LieDar: 检测LLM代理在具有实用性和真实性冲突的多回合交互场景中的交易情况
标题:AI-LieDar: Examine the Trade-off Between Utility and Truthfulness in LLM Agents
机构:密歇根大学、卡内基梅隆大学、艾伦AI研究所
相关领域:模型结构改进、指令微调、评估指标、真实性检测
作者:Zhe Su, Xuhui Zhou, Sanketh Rangreji
分析:这篇论文研究了LLM代理如何在具有实用性和真实性的冲突的多回合交互场景中导航。开发了一套现实场景,其中语言代理在多回合会话中执行具有与真实性和实用性冲突的目标的指令。开发了一种启发自心理学研究的真相检测器以确保大规模下代理的回应的truthfulness。实验结果表明,所有模型在多回合对话中的truthfulness率都低于50%,尽管truthfulness和goal achievement(utility)的率在模型间有所不同。研究了LLM代理的可操纵性,发现代理会恶意跟随指令进行误导,即使是被truth-steered的代理也有可能说谎。这些发现揭示了LLM在truthfulness方面的复杂性,并强调了为确保LLM和AI agent的safe和reliable deployment进行进一步研究的重要性。
地址:https://arxiv.org/pdf/2409.09013
18. 一种修复使用单光源数据的平面直射光照的处理器
标题:A Diffusion Approach to Radiance Field Relighting using Multi-Illumination Synthesis
机构:Adobe Research
相关领域:model-structure-improvement
作者:Yohan Poirier-Ginter, Alban Gauthier, Julien Phillip
分析:对于多光束数据的摄影,通过图像扩散模型提取的预训练信息是由于光方向有限制而产生严重不足的并且不仅是场景中的单个对象,而要使用多光源数据,则必须从单光源变到多光源。我介绍了一种利用单光源数据的方法修复放射量场,从而完成全场景的出现物修复。我先对单光束数据进行迁移学习训练,在光照方向约束上加载2D扩散模型的先验信息。通过这方面的训练,可以得到与真实的多光源数据一致,但可能是不一致到多光源数据,从而代表3D高斯平片的放射量场。通过直接控制光线的方向,该论文将视属性特征化在光照方向。通过将多个替换映射应用于它以修复一个光源到另一个光源之间的劳动。该论文展示了在单光源数据上和多光源数据上渲染出真实的3D放射量场,以完成全场景的修复,并充分利用2D扩散模型的先验信息。
地址:https://arxiv.org/pdf/2409.08947
代码:https://repo-sam.inria.fr/fungraph/generative-radiance-field-relighting/
19. TabKANet:基于Kolmogorov-Arnold网络和Transformer的表格数据建模方法
标题:TabKANet: Tabular Data Modelling with Kolmogorov-Arnold Network and Transformer
机构:清华大学
相关领域:模型结构改进、多模态
作者:Weihao Gao, Zheng Gong, Zhuo Deng
分析:该文提出了一种基于TabKANet架构的方法,利用Kolmogorov-Arnold网络对数值特征进行编码,并与分类特征进行融合。该方法在Transformer架构上实现了表格数据的统一建模,并在六个广泛使用的二分类任务中表现出卓越的性能。研究表明,TabKANet模型有望成为表格建模的标准方法,并且其揭示了Kolmogorov-Arnold网络在编码数值特征方面的优势。
地址:https://arxiv.org/pdf/2409.08806
代码:https://github.com/tsinghuamedgao20/TabKANet
20. 基于图神经网络的时空预测中的稀疏感知不确定性校准(SAUC)研究
标题:SAUC: Sparsity-Aware Uncertainty Calibration for Spatiotemporal Prediction with Graph Neural Networks
机构:麻省理工学院、佛罗里达大学、佛罗里达州立大学
相关领域:模型评估、数据集构建
作者:Dingyi Zhuang, Yuheng Bu, Guang Wang
分析:本文主要介绍了一种新型的稀疏感知不确定性校准(SAUC)框架,该框架旨在解决时空预测中的不确定性问题。针对高度精细的时空数据集通常存在的稀疏性问题,论文将图神经网络(ST-GNNs)从确定性预测修改为概率性预测,并使用分位数方法对零值和非零值进行不确定性校准。通过实验证明,SAUC可以有效地适应稀疏数据,并在真实世界的时空数据集上实现较好的泛化性能。
地址:https://arxiv.org/pdf/2409.08766
21. Apollo:用于高质量音频修复的频带序列建模
标题:Apollo: Band-sequence Modeling for High-Quality Audio Restoration
机构:清华大学、腾讯AI实验室
相关领域:模型结构改进、数据集构建
作者:Kai Li, Yi Luo
分析:这篇论文提出了一种名为Apollo的生成模型,用于高质量音频修复。它解决了音频修复中预测无损音频的挑战,通过频带分割模块建模不同频带之间的关系,生成更连贯且质量更高的修复音频。该模型在复杂场景下表现优异,如混合多种乐器和人声。与现有模型相比,Apollo在保持计算效率的同时,显著提高了音乐修复质量。
地址:https://arxiv.org/pdf/2409.08514
代码:https://github.com/JusperLee/Apollo
22. RF Challenge:数据驱动的射频信号分离挑战
标题:RF Challenge: The Data-Driven Radio Frequency Signal Separation Challenge
机构:麻省理工学院
相关领域:模型结构改进、数据集构建
作者:Alejandro Lancho, Amir Weiss, Gary C.F. Lee
分析:这篇论文解决射频信号中的干扰抑制问题,采用新型的数据驱动方法,利用最新的人工智能模型。论文的贡献包括提出一个深刻的信号模型,介绍射频挑战数据集,提出基于AI的干扰抑制算法,并在八种不同信号混合物上进行评价。这些算法在比特误差率上比传统方法高出两个数量级。论文还总结了在一个公开竞赛的结果,强调了深度学习算法在干扰抑制方面的潜力。
地址:https://arxiv.org/pdf/2409.08839
23. 开放域文本到语音合成
标题:Text-To-Speech Synthesis In The Wild
机构:上海交通大学、中国人民大学、庆应义塾大学
相关领域:数据集构建
作者:Jee-weon Jung, Wangyou Zhang, Soumi Maiti
分析:这篇论文探讨了在真实环境中训练文本到语音合成(TTS)系统的方法。传统的TTS系统使用小规模高质量的语音数据进行训练,而本文提出了一种基于真实环境采集的大量自然语音数据的TTS训练方法。论文介绍了TTS In the Wild(TITW)数据集,这是通过自动化的管道应用于VoxCeleb1数据集的结果。研究提出了两个训练集:TITW-Hard和TITW-Easy,并展示了如何使用这些数据集进行TTS模型的训练。
地址:https://arxiv.org/pdf/2409.08711
24. LightSABRE:轻量级和增强的SABRE算法
标题:LightSABRE: A Lightweight and Enhanced SABRE Algorithm
机构:IBM研究院
相关领域:模型结构改进、预训练、指令微调、奖励模型
作者:Henry Zou, Matthew Treinish, Kevin Hartman
分析:这篇论文介绍了LightSABRE,它是对SABRE算法的一个重大改进,不仅提高了运行时的效率,也提高了电路的质量。LightSABRE是为了满足现代量子硬件不断增长的需求而设计的,量子硬件现在可以处理复杂的场景和包含数百万门的电路。通过在Qiskit中的迭代开发,主要使用了Rust编程语言,该论文在Qiskit 1.2.0中实现了一个比Qiskit 0.20.1版本快大约200倍的算法,后者已经引入了一些改进,比如泄压阀机制。LightSABRE与SABRE相比,在大型电路上的可扩展性和收敛能力方面有很大提升,能够为大型量子电路的高效执行提供支持,即使是对于即将到来的量子硬件。LightSABRE的改进速度、可扩展性和质量使其成为优化量子电路的宝贵工具,特别是在不断变化的量子硬件和错误校正技术背景下。
地址:https://arxiv.org/pdf/2409.08368
25. 基于韵律音频和视频的同步合成框架
标题:Rhythmic Foley: A Framework For Seamless Audio-Visual Alignment In Video-to-Audio Synthesis
机构:清华大学、腾讯AI实验室
相关领域:多模态
作者:Zhiqi Huang, Dan Luo, Jun Wang
分析:该论文提出了一种创新的视频到音频的合成框架,旨在解决音视频不同步和音频语义缺失的问题。通过引入语义对齐适配器和时间同步适配器,该框架显著提高了语义完整性和节拍点同步的精确度,尤其在快节奏的动作序列中表现尤为出色。利用对比音视频预训练编码器,该模型经过高质量的视频和音频数据进行训练,从而提高了生成音频的质量。此外,该框架还提供了对音频语义和节拍效果的增强控制,使用户可以通过调整控制器来获得更好的结果。实验证明该框架在无缝音视频对齐方面非常有效。
地址:https://arxiv.org/pdf/2409.08628
26. 利用大模型优化食材替代,以提升食谱中的植物化学成分含量
标题:Optimizing Ingredient Substitution Using Large Language Models to Enhance Phytochemical Content in Recipes
机构:哈佛医学院、帝国理工学院
相关领域:模型结构改进、指令微调
作者:Luis Rita, Josh Southern, Ivan Laponogov
分析:这篇论文关注于计算厨艺学领域,探索如何利用大型语言模型(LLM)优化食材替代,特别是提升餐点中的植物化学成分(即植化素)含量。研究通过微调包括OpenAI的GPT-3.5、DaVinci以及Meta的TinyLlama等模型,使用食材替代数据集进行预测,生成富含植化素的食材配对和食谱。此研究在优化食材替代方面显示出潜力,但关于健康效益的结论仍基于临床前证据,需要进一步的临床验证和更广泛的数据集来评估这些替代品的营养影响。
地址:https://arxiv.org/pdf/2409.08792
27. HOLA-Drone: 高级标记开放式学习在多种无人机统一捕猎场景中的应用
标题:HOLA-Drone: Hypergraphic Open-ended Learning for Zero-Shot Multi-Drone Cooperative Pursuit
机构:中山大学、普渡大学、曼彻斯特大学
相关领域:模型结构改进、RLHF、模型评估、多模态
作者:Yang Li, Dengyu Zhang, Junfan Chen
分析:本文探讨了一个名为zero-shot协调(ZSC)的关键问题,这在多代理协同工作领域中非常重要。其目标是构建能够与未曾接触过的合作伙伴协调配合的智能体。这种合作伙伴在合作过程中未曾与智能体交互过。本文矢志于面对多种无人机(被称为未见无人机队友)进行联合捕猎的场景应用,构造出能与多个未曾见的合作伙伴协同作业、捕捉多个逃逸者的无人机智能体。为此提出了一种创新的Hypergraphic Open-ended Learning Algorithm(HOLA-Drone),通过以高级图形形式的游戏建模持续调整学习目标,以此增强与多个未知无人机精英的合作能力。为了实证HOLA-Drone的有效性,打造了两个不同的未见无人机队友池,用于评估与各种未见合作伙伴的协调能力。实验结果显示,HOLA-Drone在与未见过的无人机队友协同时,表现出超越基线方法的卓越性能。此外,现实世界实验证实了HOLA-Drone在物理系统中使用的可行性,所有相关视频可以在项目主页找到。
地址:https://arxiv.org/pdf/2409.08767
代码:https://sites.google.com/view/hola-drone
28. 耳电-脑电解码多说话者环境中的听觉注意力
标题:Using Ear-EEG to Decode Auditory Attention in Multiple-speaker Environment
机构:北京大学、AI国家级重点实验室
作者:Haolin Zhu, Yujie Yan, Xiran Xu
分析:本文通过分析和处理来自两个说话者的头皮脑电图(EEG)数据,研究了听觉注意解码(AAD)在多说话者环境中的应用。实验表明,耳电(cEEGrids)可以有效地用于AAD任务,通过其可以获取到被关注说话者的脑电信号,从而实现对被关注说话者身份的识别。此外,作者还发现电极的位置对解码准确性有显著影响,进一步验证了耳电在多说话者环境中的实际应用价值。
地址:https://arxiv.org/pdf/2409.08710
代码:https://github.com/zhl486/Ear_EEG_code.git
29. Synthetic Human Memories:AI编辑的图像和视频可以植入错误记忆并扭曲回忆
标题:Synthetic Human Memories: AI-Edited Images and Videos Can Implant False Memories and Distort Recollection
机构:麻省理工学院
作者:Pat Pataranutaporn, Chayapatr Archiwaranguprok, Samantha W. T. Chan
分析:这篇论文研究了人工智能编辑的图像和视频对错误记忆的影响。它通过让200名参与者分别观看原始图像、完成填充任务,然后观看四种条件下的刺激:未经编辑的图像、由AI编辑的图像、AI生成视频、AI生成的视频中的AI编辑图像。结果显示,AI编辑的视频中的AI编辑图像增加了错误的回忆,其中以AI生成的视频中的AI编辑图像的效果最强(比控制组高2.05倍),虚假记忆的自信程度在这组中也最高(比控制组高1.19倍)。论文讨论了在用户界面设计等方面可以应用的潜在应用,以及伦理、法律、政治和社会方面的挑战。
地址:https://arxiv.org/pdf/2409.08895
30. GenMapping:释放逆透视映射的潜力以实现稳健的在线高清地图构建
标题:GenMapping: Unleashing the Potential of Inverse Perspective Mapping for Robust Online HD Map Construction
机构:浙江大学
相关领域:模型结构改进、数据集构建
作者:Siyu Li, Kailun Yang, Hao Shi
分析:这篇论文提出了一种名为GenMapping的通用地图生成框架,该框架利用逆透视映射的潜力,解决了在线高清地图构建中的关键问题。该框架能够在面对具有局部扭曲的粗糙道路图像时,通过主分支学习稳健的全局特征,并结合两个辅助分支提供密集透视信息和稀疏先验知识,从而进行高精度的地图构建。此外,该论文还介绍了跨视图地图学习和双向数据增强方案,以提高模型的泛化能力和减少对并行数据集的依赖。
地址:https://arxiv.org/pdf/2409.08688
代码:https://github.com/lynn-yu/GenMapping
31. AnalogGym: 一种开放和实用的模拟电路合成测试套件
标题:AnalogGym: An Open and Practical Testing Suite for Analog Circuit Synthesis
机构:东南大学、复旦大学、电子科技大学
地址:https://arxiv.org/pdf/2409.08534
代码:https://github.com/CODA-Team/AnalogGym
32. Mamba-YOLO-World:结合YOLO-World与Mamba实现开放词汇检测
标题:Mamba-YOLO-World: Marrying YOLO-World with Mamba for Open-Vocabulary Detection
机构:腾讯、复旦大学、上海交通大学
相关领域:模型结构改进
地址:https://arxiv.org/pdf/2409.08513
33. CSS: 解决人群3D高斯涂抹的姿态和场景挑战
标题:CSS: Overcoming Pose and Scene Challenges in Crowd-Sourced 3D Gaussian Splatting
机构:清华大学、北京邮电大学、中国科学院计算技术研究所
相关领域:模型结构改进、预训练、指令微调、奖励模型
地址:https://arxiv.org/pdf/2409.08562
34. USTC-TD:面向图像和视频编码的测试数据集与基准测试
标题:USTC-TD: A Test Dataset and Benchmark for Image and Video Coding in 2020s
机构:中国科学技术大学
相关领域:数据集构建、模型评估
地址:https://arxiv.org/pdf/2409.08481
代码:https://esakak.github.io/USTC-TD
35. 探索数据数量对极低资源语言ASR的影响
标题:Exploring the Impact of Data Quantity on ASR in Extremely Low-resource Languages
机构:清华大学、华盛顿大学
相关领域:模型结构改进、预训练、数据集构建
地址:https://arxiv.org/pdf/2409.08872
36. 心电图报告生成与问答通过检索增强型自监督建模
标题:Electrocardiogram Report Generation and Question Answering via Retrieval-Augmented Self-Supervised Modeling
机构:剑桥大学、埃因霍温科技大学
相关领域:模型结构改进、预训练、多模态
地址:https://arxiv.org/pdf/2409.08788
37. 地球观测基础模型的不确定性及通用性
标题:Uncertainty and Generalizability in Foundation Models for Earth Observation
机构:牛津大学、卢森堡大学
相关领域:模型评估、多模态
地址:https://arxiv.org/pdf/2409.08744
38. B4:基于最优评估的可信代码解决方案的评估方法
标题:B4: Towards Optimal Assessment of Plausible Code Solutions with Plausible Tests
相关领域:模型评估
地址:https://arxiv.org/pdf/2409.08692
代码:https://github.com/ZJU-CTAG/B4
39. 大模型在多说话者场景中的语音转录能力研究
标题:Large Language Model Can Transcribe Speech in Multi-Talker Scenarios with Versatile Instructions
机构:香港中文大学
相关领域:模型结构改进、多模态
地址:https://arxiv.org/pdf/2409.08596
40. DexSim2Real^{2}:构建显式世界模型进行精确关节式物体灵巧操作
标题:DexSim2Real^{2}: Building Explicit World Model for Precise Articulated Object Dexterous Manipulation
机构:清华大学、乔治亚理工学院、北京航空航天大学
地址:https://arxiv.org/pdf/2409.08750
41. DataliVR: 通过虚拟现实与ChatGPT增强技术实现数据素养教育的变革
标题:DataliVR: Transformation of Data Literacy Education through Virtual Reality with ChatGPT-Powered Enhancements
机构:慕尼黑工业大学
相关领域:模型结构改进、预训练、多模态
地址:https://arxiv.org/pdf/2409.08738
42. 基于子图扩散模型的大模型
标题:Sub-graph Based Diffusion Model for Link Prediction
机构:埃默里大学、香港理工大学、密歇根州立大学
相关领域:模型结构改进、预训练、链接预测
地址:https://arxiv.org/pdf/2409.08487
43. 从学习视角重新思考元学习
标题:Rethinking Meta-Learning from a Learning Lens
机构:中国科学院大学
相关领域:元学习,过拟合,学习到的学习,Task Relation Learner
地址:https://arxiv.org/pdf/2409.08474
44. CompressedMediQ:混合量子机器学习管道用于处理高维神经成像数据
标题:CompressedMediQ: Hybrid Quantum Machine Learning Pipeline for High-Dimentional Neuroimaging Data
机构:帝国理工学院
相关领域:模型结构改进、数据集构建
地址:https://arxiv.org/pdf/2409.08584
45. L3Cube-IndicQuest:用于评估印地语境中大模型知识的问答数据集基准
标题:L3Cube-IndicQuest: A Benchmark Questing Answering Dataset for Evaluating Knowledge of LLMs in Indic Context
机构:印度理工学院、印度Pune计算机学院
相关领域:数据集构建、模型评估
地址:https://arxiv.org/pdf/2409.08706
代码:https://github.com/l3cube-pune/indic-nlp
46. ChangeChat: 通过多模态指令微调的遥感变化分析交互式模型
标题:ChangeChat: An Interactive Model for Remote Sensing Change Analysis via Multimodal Instruction Tuning
相关领域:指令微调、模型蒸馏、多模态
地址:https://arxiv.org/pdf/2409.08582
代码:https://github.com/hanlinwu/ChangeChat
47. AI能提示人类吗?多模态代理人提示玩家游戏行为并展示后果以提高可持续发展意识
标题:Can AI Prompt Humans? Multimodal Agents Prompt Players' Game Actions and Show Consequences to Raise Sustainability Awareness
机构:马里兰大学、香港城市大学、加利福尼亚大学
相关领域:游戏设计、人工智能应用、环境科学
地址:https://arxiv.org/pdf/2409.08486
48. VAE Explainer:补充学习可变自动编码器与交互式可视化
标题:VAE Explainer: Supplement Learning Variational Autoencoders with Interactive Visualization
机构:乔治亚理工学院
相关领域:模型评估、多模态
地址:https://arxiv.org/pdf/2409.09011
代码:https://xnought.github.io/vae-explainer; https://xnought.github.io/vae-explainer
49. Policy Prototyping for LLMs:多元一致性的互动式与协作式决策
标题:Policy Prototyping for LLMs: Pluralistic Alignment via Interactive and Collaborative Policymaking
机构:华盛顿大学
相关领域:模型政策,AI多一致,互动协作
地址:https://arxiv.org/pdf/2409.08622
50. STA-V2A: 语义和时序关联的视频到音频生成
标题:STA-V2A: Video-to-Audio Generation with Semantic and Temporal Alignment
相关领域:视频生成、音频生成、时序对齐、语义一致性
地址:https://arxiv.org/pdf/2409.08601
代码:https://y-ren16.github.io/STAV2A
51. 基于大模型的多智能体系统知识标签研究
标题:Knowledge Tagging with Large Language Model based Multi-Agent System
机构:哥伦比亚大学、密歇根州立大学
相关领域:模型结构改进、多模态
地址:https://arxiv.org/pdf/2409.08406
52. QueryCAD: 面向CAD模型的可 grounded 的问题回答系统
标题:QueryCAD: Grounded Question Answering for CAD Models
地址:https://arxiv.org/pdf/2409.08704
代码:https://claudius-kienle.github.com/querycad)
53. 360PanT:基于文本的360度全景图到全景图的转换训练免费方法
标题:360PanT: Training-Free Text-Driven 360-Degree Panorama-to-Panorama Translation
相关领域:模型结构改进
地址:https://arxiv.org/pdf/2409.08397
代码:https://github.com/littlewhitesea/360PanT
54. FedProphet:基于理论鲁棒性和低不一致性级联学习的内存高效联邦对抗训练
标题:FedProphet: Memory-Efficient Federated Adversarial Training via Theoretic-Robustness and Low-Inconsistency Cascade Learning
机构:Duke University
相关领域:模型结构改进、奖励模型、RLHF、模型评估
地址:https://arxiv.org/pdf/2409.08372
55. LLaQo: 朝向基于查询的教练在表现性音乐表演评估中的发展
标题:LLaQo: Towards a Query-Based Coach in Expressive Music Performance Assessment
机构:伦敦玛丽女王大学
相关领域:模型结构改进、指令微调
地址:https://arxiv.org/pdf/2409.08795
56. SynSUM:基于结构化和非结构化医疗记录的合成基准
标题:SynSUM -- Synthetic Benchmark with Structured and Unstructured Medical Records
相关领域:数据集构建, 医疗信息提取, 临床推理, 多模态合成
地址:https://arxiv.org/pdf/2409.08936
代码:https://github.com/prabaey/SynSUM
57. GroundingBooth:文本到图像定制的实体空间定位技术
标题:GroundingBooth: Grounding Text-to-Image Customization
机构:普渡大学
相关领域:模型结构改进、多模态
地址:https://arxiv.org/pdf/2409.08520
58. 利用LLM作为副驾驶的智能激光雷达导航:结合外部信息和语义地图
标题:Intelligent LiDAR Navigation: Leveraging External Information and Semantic Maps with LLM as Copilot
相关领域:模型应用(LLMs在机器人导航)
地址:https://arxiv.org/pdf/2409.08493
代码:https://github.com/xiexiexiaoxiexie/Intelligent-LiDAR-Navigation-LLM-as-Copilot
59. 情感计算发生了变化:基础模型中断的基础
标题:Affective Computing Has Changed: The Foundation Model Disruption
机构:慕尼黑机器学习中心
相关领域:预训练, 模型结构改进
地址:https://arxiv.org/pdf/2409.08907
60. 手写文本识别中Vit的应用
标题:HTR-VT: Handwritten Text Recognition with Vision Transformer
地址:https://arxiv.org/pdf/2409.08573
代码:https://github.com/YutingLi0606/HTR-VT
61. ATFLRec:融合音频文本的大模型的多模态推荐系统
标题:ATFLRec: A Multimodal Recommender System with Audio-Text Fusion and Low-Rank Adaptation via Instruction-Tuned Large Language Model
机构:达尔豪斯大学
相关领域:模型结构改进、多模态
地址:https://arxiv.org/pdf/2409.08543
62. AnyBipe:基于大模型的双足机器人端到端训练与部署框架
标题:AnyBipe: An End-to-End Framework for Training and Deploying Bipedal Robots Guided by Large Language Models
机构:上海交通大学
相关领域:模型结构改进、模型评估、多模态
地址:https://arxiv.org/pdf/2409.08904
63. 突破reCAPTCHAv2验证码系统
标题:Breaking reCAPTCHAv2
机构:苏黎世联邦理工学院
相关领域:模型结构改进、模型评估
地址:https://arxiv.org/pdf/2409.08831
64. 改进的贝塞尔函数对数计算在GPU上的精准计算
标题:Accurate Computation of the Logarithm of Modified Bessel Functions on GPUs
机构:丹麦技术大学、苏黎世联邦理工学院
地址:https://arxiv.org/pdf/2409.08729
65. 在含有标签噪声的表格数据上训练回归梯度提升决策树进行分类任务
标题:Training Gradient Boosted Decision Trees on Tabular Data Containing Label Noise for Classification Tasks
机构:谢菲尔德大学
地址:https://arxiv.org/pdf/2409.08647
66. Scores as Actions:通过连续时间强化学习框架调整扩散模型的精细调谐
标题:Scores as Actions: a framework of fine-tuning diffusion models by continuous-time reinforcement learning
机构:哥伦比亚大学
相关领域:RLHF
地址:https://arxiv.org/pdf/2409.08400
67. 预训练音乐表示模型在音乐推荐系统中的应用研究与分析
标题:Comparative Analysis of Pretrained Audio Representations in Music Recommender Systems
相关领域:模型结构改进、预训练
地址:https://arxiv.org/pdf/2409.08987
68. 基于二进制神经网络的低空飞行器路径规划器研究
标题:Pathfinder for Low-altitude Aircraft with Binary Neural Network
相关领域:模型结构改进
地址:https://arxiv.org/pdf/2409.08824
代码:https://github.com/IMRL/Pathfinder
69. 统一音频事件检测
标题:Unified Audio Event Detection
机构:上海交通大学、新加坡国立大学
相关领域:数据集构建、模型评估
地址:https://arxiv.org/pdf/2409.08552
70. SIG: 用于生成面部识别评估数据集的合成身份生成管道
标题:SIG: A Synthetic Identity Generation Pipeline for Generating Evaluation Datasets for Face Recognition
相关领域:模型评估、数据集构建
地址:https://arxiv.org/pdf/2409.08345
71. LHQ-SVC:轻量级高质量歌声转换建模
标题:LHQ-SVC: Lightweight and High Quality Singing Voice Conversion Modeling
相关领域:模型结构改进
地址:https://arxiv.org/pdf/2409.08583
72. 新兴的人-AI文本生成依赖行为:幻想、数据质量评估和认知强制函数
标题:Emerging Reliance Behaviors in Human-AI Text Generation: Hallucinations, Data Quality Assessment, and Cognitive Forcing Functions
相关领域:模型评估
地址:https://arxiv.org/pdf/2409.08937
73. 视频驱动的吉他谱生成技术
标题:TapToTab : Video-Based Guitar Tabs Generation using AI and Audio Analysis
地址:https://arxiv.org/pdf/2409.08618
74. 大模型在印尼职业考试评估中的挑战
标题:Cracking the Code: Multi-domain LLM Evaluation on Real-World Professional Exams in Indonesia
机构:MBZUAI大学
地址:https://arxiv.org/pdf/2409.08564
75. 大模型在场景知识一致的情况下,局部上下文引导而参数记忆跟进
标题:When Context Leads but Parametric Memory Follows in Large Language Models
相关领域:模型评估、数据集构建、奖励模型
地址:https://arxiv.org/pdf/2409.08435
76. 利用开源大模型Llama3.1进行学术问答
标题:Contri(e)ve: Context + Retrieve for Scholarly Question Answering
机构:科隆莱茵应用技术大学
相关领域:模型结构改进、预训练、指令微调、奖励模型、RLHF、模型评估、数据集构建、评估指标、模型蒸馏、多模态
地址:https://arxiv.org/pdf/2409.09010
77. 科学和技术知识的增长
标题:Scientific and technological knowledge grows linearly over time
地址:https://arxiv.org/pdf/2409.08349
今天的论文分享完啦,欢迎👏🏻👏🏻明天再来~