2024深度学习发论文&模型涨点之——机器学习+运筹优化
机器学习是人工智能的一个分支,它使计算机系统能够从数据中学习并改进其性能,而无需进行明确的编程。运筹优化,也称为运筹学或运营管理,是应用数学的一个分支,它使用数学模型和算法来支持复杂决策过程的制定。
机器学习与运筹优化的结合是一个前沿且活跃的研究领域,它们相互补充,为解决复杂问题提供了新的思路和方法。
小编整理了一些机器学习+运筹优化【论文+代码】合集,以下放出部分,全部论文PDF版扫码领取。
【NIPS】Bisimulation Quotienting for Efficient Neural Combinatorial Optimization
将组合优化问题(COPs)表述为马尔可夫决策过程(MDPs):提出了一种新的方法,将COPs转化为MDPs,利用COPs的共同对称性来提高模型对分布外泛化的能力。
双模拟商(BQ):引入了一种基于MDPs中的双模拟商的方法,以减少状态空间,提高学习效率。
针对递归性质的COPs的双模拟:为具有递归性质的COPs专门化双模拟,展示了如何利用这些问题的对称性来简化MDP求解。
基于注意力的策略网络:为BQMDPs引入了简单的基于注意力的策略网络,通过模仿小型实例的(近)最优解进行训练。
通用框架:提出了一个通用且原则性框架,将任何COP转化为MDP,并证明了最优MDP策略与解决COP之间的等价性。
双模拟商(BQ):提出了一种通过关注对称性来减少直接MDPs的方法,并为递归COPs定义了明确的双模拟。
优秀的泛化性能:与大多数现有神经方法相比,学习到的策略在训练期间未见过的更大实例上表现出色,无需额外的搜索程序。
模型架构简化:通过双模拟商简化了模型架构,消除了编码器和解码器之间的区别,使得模型更加简单高效。
论文2:
学习构建性神经组合优化需要遗憾
遗憾机制:提出了一种基于遗憾的机制,用于在构建解决方案的过程中回退到前一个节点。
可学习向量:引入了一个可学习的向量,称为遗憾编码,用于表示遗憾机制的特征。
模型无关性:LCH-Regret方法不依赖于特定模型,可以作为插件增强任何现有的基于LCH的DRL-NCO方法。
修改MDP:为了训练遗憾机制的策略网络,引入了修改后的马尔可夫决策过程(MDP)。
解决方案构建过程的修改:首次提出修改自回归解决方案构建过程,以获得更好的编码。
可学习向量:通过添加可学习的遗憾向量来表示遗憾嵌入,增强了模型的表示能力。
模型无关性:LCH-Regret方法不依赖于特定模型结构,可以作为插件增强任何现有的基于LCH的DRL-NCO方法。
提升性能和泛化能力:在多个典型的组合优化问题上,LCH-Regret方法显示出比之前的方法更好的性能和泛化能力。
论文3:
Combining metaheuristics with mathematical programming, constraint programming and machine learning
将元启发式与数学规划、约束编程和机器学习相结合
元启发式与互补元启发式结合:探讨了如何将不同的元启发式算法相互结合,以利用它们的互补特性。
元启发式与数学规划精确方法结合:分析了如何将元启发式算法与数学规划中的精确方法相结合,以提高算法的效率和效果。
元启发式与约束编程结合:讨论了如何将元启发式算法与约束编程方法相结合,以解决具有复杂约束的优化问题。
元启发式与机器学习和数据挖掘技术结合:研究了如何将元启发式算法与机器学习和数据挖掘技术相结合,以提取搜索历史中的知识,改善算法性能。
统一的混合元启发式分类体系:提出了一个统一的分类体系,这是首次尝试将元启发式与数学规划、约束编程和机器学习的不同组合进行系统分类。
混合算法的设计和实现问题的深入分析:提供了对混合算法设计和实现问题的深入分析,包括功能性、架构和执行模型的考量。
混合算法的语法定义:通过定义混合元启发式的语法,提供了一种新的方法来描述和生成混合优化算法。
多目标优化问题的适用性:所提出的分类体系不仅适用于单目标优化问题,还可以扩展到解决多目标优化问题,增加了算法的适用范围。
混合算法的全面覆盖:涵盖了从低级到高级、从接力到团队合作的不同混合策略,为未来工作提供了详细的分类和指导。
论文4:
【Nature子刊】Distributed Constrained Combinatorial Optimization leveraging Hypergraph Neural Networks
利用超图神经网络的分布式约束组合优化
超图神经网络(HyperGNN):提出了一种基于超图神经网络的方法,用于解决具有高阶约束的组合优化问题。
分布式和并行训练架构:引入了一种新的分布式和并行训练架构,以支持更大规模问题的可扩展性。
知识转移:通过在同一超图内转移知识,展示了模型在不同问题公式之间的泛化能力。
模拟退火(Simulated Annealing):提出了使用模拟退火进行微调的步骤,以提高解决方案的准确性。
基准测试:在多个基准测试案例上展示了显著的进展,包括超图MaxCut、可满足性问题和资源分配问题。
超图神经网络的应用:首次将超图神经网络应用于具有高阶约束的一般组合优化问题,扩展了图神经网络的应用范围。
分布式和并行训练的可扩展性:通过提出新的分布式和并行训练架构,显著提高了处理大规模问题的能力和效率。
跨问题泛化:通过在同一超图内进行知识转移,展示了模型在解决不同优化问题时的泛化能力,减少了重复训练的需要。
模拟退火微调:结合模拟退火算法进行微调,显著提高了解决方案的准确性,特别是在超图神经网络训练可能陷入次优局部解时。
实际应用展示:在科学发现领域,如NDC药物物质超图的MaxCut问题上,展示了HypOp的实际应用能力,证明了其在实际问题中的有效性。
微信公众号后台回复
加群:加入全球华人OR|AI|DS社区硕博微信学术群
资料:免费获得大量运筹学相关学习资料
人才库:加入运筹精英人才库,获得独家职位推荐
电子书:免费获取平台小编独家创作的优化理论、运筹实践和数据科学电子书,持续更新中ing...
加入我们:加入「运筹OR帷幄」,参与内容创作平台运营
知识星球:加入「运筹OR帷幄」数据算法社区,免费参与每周「领读计划」、「行业inTalk」、「OR会客厅」等直播活动,与数百位签约大V进行在线交流
文章须知
微信编辑:疑疑
关注我们
FOLLOW US