网红丁最近的生活可以说是“破马张飞”,这会儿能读读论文是件快乐的事。打开网页,看看各种early access,也就最近几天三篇工作都是大规模昂贵多目标优化,那网红丁觉得横向拉开来看是个很有意思的选题。
H. Wu, Y. Jin, K. Gao, J. Ding and R. Cheng, "Surrogate-Assisted Evolutionary Multi-Objective Optimization of Medium-Scale Problems by Random Grouping and Sparse Gaussian Modeling," in IEEE Transactions on Emerging Topics in Computational Intelligence, doi: 10.1109/TETCI.2024.3372378.
Y. Li, X. Feng and H. Yu, "Solving High-Dimensional Expensive Multiobjective Optimization Problems by Adaptive Decision Variable Grouping," in IEEE Transactions on Evolutionary Computation, doi: 10.1109/TEVC.2024.3383095.
L. Pan, J. Lin, H. Wang, C. He, K. C. Tan and Y. Jin, "Computationally Expensive High-Dimensional Multiobjective Optimization via Surrogate-Assisted Reformulation and Decomposition," in IEEE Transactions on Evolutionary Computation, doi: 10.1109/TEVC.2024.3380327.
前几年,大家都在卷昂贵高维多目标优化,最近大家还是把注意力拉回了高维决策空间,这个难点在便宜问题里面也是具有挑战的,更别说构建代理模型的时候挑战就更大了,对于大规模单目标优化问题更多的工作还是集中在如何降维了(回顾->大规模进化优化的降维之争 )。
说回今天的工作,其实大家的思路也是类似的,论文1用的模型是一个稀疏GP(主要是降低了建模复杂度),但GP搞不了太高维度,降维的思路其实蛮常规,还是用随机分组来降维,但有趣的点是随机分组后的决策子空间上建模后,采样函数是每一个优化目标的LCB,构成了下面这个多目标优化问题:
于是用NSGA-II得到了在这个决策子空间一组非支配解,聚类得到三个代表解,需要注意真实评价要完整解,那么其他决策变量的值该如何确定?这个方法用的是真实评价过的解的档案里面非支配接的拐点来拼完成解,见下图。
从实验结果上来看,这个算法其实能冲到200维。
论文2的降维思路同样是分组,但不是随机分组了,是根据好解和坏解每个决策变量的分布,来分组,如下图所示:
这样分组后组内各自建模和优化,然后再把各组拼接到一起,当然,这个算法也根据优化进程的需求做了不同的采样,这里其实和KTA2思路一致(回顾->KTA2:一个不需要参考向量的昂贵高维多目标进化优化算法 ),实验来看这个算法也可以冲到200维。
我们再来看论文3,核心呢还是降维,但用了两个技术:问题转化和变量分组,如下图:
其中问题分组的想法来自于下面这个工作:
C. He, L. Li, Y. Tian, X. Zhang, R. Cheng, Y. Jin, and X. Yao, “Accelerating large-scale multiobjective optimization via problem reformulation,” IEEE Trans. Evol. Comput., vol. 23, no. 6, pp. 949–961, 2019.
简而言之就是在决策空间拉两条线,然后在这个线上搜索在PS上的点,其实还是一种降维(回顾->小声嘀咕:多目标进化算法的战场好像转移到large scale了 )。此外这个方法也做了类似于论文2的变量分组方法进行降维。实验结果方面可以冲到500维。
总结一下,大规模昂贵多目标优化问题求解的核心还是在咋降维,由于今天文章多,文末“阅读原文”不埋连接了,感兴趣的同学能搜索原文阅读。
最后,欢迎转载,欢迎留言,欢迎扔砖,欢迎吐槽,欢迎提问,还有欢迎关注。