彪马PUMA优化器(含MATLAB代码)

学术   2024-03-18 12:14   英国  


MATLAB代码获取方式:关注公众号,回复PUMA可免费获取代码

引言

优化是指在满足所有设计标准的前提下,选择系统内特定参数的最适值,同时将开销降至最低。在所有科学领域中,优化都是一个普遍存在的挑战。这需要开发新的高级算法来解决日益复杂的问题。传统的优化算法存在一些限制,包括单一解决方案、收敛到局部最优解以及在未知搜索空间中的困难。在过去几十年中,许多研究人员构建了元启发式算法,旨在克服这些缺点,解决未解决的优化问题。优化涉及确定决策变量,以获得一个或多个适应度函数的最佳解决方案。在启发式优化出现之前,分析方法是解决优化问题的主要方法。在一次和线性组合的背景下,分析方法集中于收集与个体或受约束惩罚的适应度函数变量有关的信息,以及有关适应度函数和约束违反的主要数据。这种方法使得在线性或凸非线性优化问题中定位精确的最优解变得更加简单。然而,这种方法在更复杂的优化问题中表现较差,可能导致局部最优解陷阱 ,或者对于随机或未知搜索空间问题出现各种过早收敛的问题。

现实世界中的优化问题通常具有随机行为和不确定的搜索空间特性,这促进了元启发式算法的发展,这些算法不依赖于导数,也不需要限制性假设。元启发式算法非常灵活,可以用来解决各种优化问题 。在复杂和动态环境中,元启发式算法可以提供有价值的解决方案。数学优化方法可以分为随机和确定性两类。确定性方法,如线性和非线性规划,利用问题的梯度知识来探索问题空间并找到解决方案。虽然这些技术对于线性搜索空间问题很有帮助,但在应用于非线性搜索空间问题(例如现实世界的非凸问题)时,它们容易受到局部最优解陷阱的影响。因此,修改或融合这些算法是解决此类问题的必要步骤。

本文的主要贡献如下:

  1. 首次引入了一种新的智能方法,用于自动改变相位和平衡。
  2. 提出了一种创新的优化算法——Puma Optimizer,用于全局优化、机器学习和数据挖掘问题。
  3. 通过使用三个具有挑战性的问题(23个标准测试基准、CEC2019和机器学习问题)来计算了Puma Optimizer的性能。
  4. 将Puma Optimizer的性能与最先进的群体智能(SI)算法、物理启发算法和生物启发算法进行了分析。
  5. 在探索阶段提供了一种新的方法,使用了两个运算符和一种新的方法。
  6. 在开发阶段提出了一种新的方法,使用了三种新的机制和方法。

Puma optimizer (PO)

动机

美洲狮(又称美洲狮、山狮)这一大型猫科动物。美洲狮栖息地广泛,从南美的安第斯山脉到加拿大的育空地区。它是美洲第二大的猫科动物,仅次于美洲豹。美洲狮适应性强,生活在不同的栖息地,并以其他猎物为食。它主要是夜行性动物,但白天也可见到。美洲狮是伏击捕食者,主要以有蹄类动物(包括鹿)为食。尽管如此,它也捕食小型猎物,如啮齿动物和昆虫,有时还袭击家畜。美洲狮喜欢在茂密的灌木丛和岩石地区伏击猎物,也生活在开阔的平原上。它是领地性动物,领地范围广阔,人口密度较低。美洲狮可以奔跑,但通常是伏击猎物。为了捕猎,它们穿过灌木丛、树木或其他遮蔽的地方,然后用强大的跳跃落在猎物身后,用尖牙使猎物窒息。然后,美洲狮用强大的尖牙抓住某些小型猎物的颈部,并将其摔在地上。

数学模型

大多数元启发式优化算法受到自然现象的启发,通过生成随机解并利用每个优化算法中可用的机制来改变探索因素,从而执行优化操作。PO优化算法使用了一种新的机制来改变探索和开发的阶段,这在阶段变化机制中是创新且有目的的,并且是首次提出。另一方面,在开发和探索阶段,我们使用了两种不同的机制来执行优化操作。在PO算法中,最佳解被视为雄性美洲狮,整个优化空间也被视为美洲狮的领地。其他解()被视为雌性美洲狮。在该算法中,所有解都使用阶段变化机制在每次迭代中进入开发或探索阶段,而且这些阶段的选择也是有目的且智能的。在每个探索阶段中,我们采用了不同的方法来执行优化操作,并且在每个阶段中,我们应用了两种不同的机制,这些机制受到了美洲狮在自然界中生活方式的启发。下图概述了优化过程,展示了它如何基于PO中使用的机制运作。

智能相位变化机制(Puma Intelligence)

美洲狮是非常聪明的动物,拥有出色的记忆力。在捕猎时,它们通常会前往可能更容易捕获猎物的地方,这基于它们以往的经验。这些有针对性的狩猎之旅可以是之前曾经猎杀并藏匿猎物的地方,也可以是它之前没有猎杀过的新地方。在本文中,我们将考虑美洲狮前往之前有潜在猎物的地方的开发阶段,以及前往新区域的探索阶段。为了改变这些阶段,我们受到了美洲狮智能和记忆的启发,并首次提出了一种全新且智能的机制,可以视为先进的超启发式算法,下面将对其进行详细解释。

在所提出的算法中,相位变化机制是一种启发式选择算法,它利用多样性和强化两个组成部分来执行奖励和惩罚操作以进行评分。相位变化部分受到美洲狮智能的启发。它有两种方法,第一种方法是美洲狮缺乏足够的经验和能量,它们会同时尝试探索陌生的领地以寻找猎物。它们会在有潜力的地区伏击猎物,这在没有足够经验的第一代美洲狮中进行了讨论。

未经验阶段

美洲狮在早期生活中缺乏经验,通常由于对生活空间的陌生和对领地内猎物位置的不知情,而同时执行探索操作。另一方面,它会寻找有利的狩猎区域。在Puma算法中,在前三次迭代中,探索操作和开发操作同时进行,直到在相位变化阶段完成初始化。在本节中,因为每次迭代中都会选择开发和探索阶段的配对,所以只使用了两个函数(),这些函数是根据公式(1-4)计算的。

变量值 与开发和探索各阶段相关,由公式(1-4)计算得出。而 是一个具有恒定值的变量,我们将其视为1。 都是具有固定值的参数,必须在优化过程之前设置,用于优先考虑 函数中的每一个。

在公式(5和8)中, 是初始化阶段产生的最佳解决方案的成本,而六个变量 分别表示从开发和探索各阶段获得的最佳解决方案的成本,这些成本分别对应于第1、2和3次迭代。在第3次迭代结束时计算了函数 后,从现在开始只选择探索和开发阶段中的一个。因为其他美洲狮已经有了愉快的经验,为了选择这两个阶段中的一个,使用公式(11和12)计算了开发和探索阶段的两个点。

根据公式(11和12)计算了 ,以进入探索和开发阶段之一。如果 ,则进入开发阶段,否则进入探索阶段。但关键问题在于,在第3次迭代结束时,每个步骤都会独立生成解决方案,这超过了总体数量。为了解决这个问题,在第3次迭代结束时,计算了两个阶段中生成的解决方案的总成本,并且只有在整个解决方案集中的最佳解决方案等于替换当前解决方案的整体。

经验阶段

在经过三代之后,美洲狮已经积累了足够的经验,可以决定是否改变阶段,在迭代的继续过程中,它们只选择一个阶段进行优化操作。在这个阶段,我们使用了三个不同的函数 来进行评分。第一个函数强调升级组件,并导致了选择探索和开发两个阶段中表现更好的一个阶段,这两个阶段已经被选择并且相互之间的表现更好。第一个函数更加强调探索阶段。第一个函数的计算公式如下:

在等式 (13) 和 (14) 中, 分别表示基于探索阶段或开发阶段的第一个函数的量,其中 t 表示当前迭代数。分别是当前选择改进之前的最佳解的成本。另一方面,是改进当前选择后获得的最佳解的成本。分别是从先前选择到当前选择的未选择迭代数。 是一个用户可调参数,必须在优化操作之前设置为介于 0 和 1 之间的值。此参数确定第一个函数的重要程度,随着该函数值的增加而优先级增加,随着优先级的降低而减少。

第二个函数也强调共振组件,并导致表现更好的阶段比其他优先阶段更高。好的性能会被依次检查和测量。因此,这个函数可以帮助开发阶段进行选择。第二个函数使用等式 (15) 和 (16) 计算。

在等式 (15) 和 (16) 中,分别表示与探索阶段或开发阶段相关的第二个函数,其中 t 表示当前迭代数。分别是探索和开发阶段当前选择改进之前的最佳解的成本, 是在先前选择的改进之前的最佳解的成本,而 是前两个选择的改进之前的最佳 Puma 的成本。 分别是在当前选择改进之后获得的最佳解的成本,而 是在先前选择改进之后获得的最佳搜索代理的成本,是在前两个选择改进之后获得的最佳解的成本。分别是在探索和开发阶段从先前选择到当前选择的未选择迭代数,是从两个先前选择到一个先前选择的未选择迭代数,是从三个先前选择到两个先前选择的未选择迭代数。 是一个参数,必须在优化操作之前设置为介于 0 和 1 之间的值。此参数确定第二个函数的适用程度。它随着该函数值的增加而优先级增加,随着优先级的降低而减少。

选择机制中的第三个函数强调多样性组件,并导致在许多重复中未被选择的阶段也有机会被选择,因为选择一个阶段会导致陷入局部最优陷阱。该函数在等式 (17) 和 (18) 中表示。

在等式 (17) 和 (18) 中, 分别表示与开发阶段或探索阶段相关的第三个函数,其中 表示当前迭代数。根据等式 (3),如果开发和探索阶段中的其中一个未被选择,则每次迭代中该阶段的第三个函数的值将增加参数 ;否则,它将被设置为零。参数是一个用户可调参数,必须在优化操作之前设置为介于 0 和 1 之间的值。参数 的值越接近 1,得分较低的阶段被选择的机会就越高,而随着值的减少,选择的机会也会减少。使用等式 (19) 和 (20),计算阶段变化函数的成本。

使用等式 (19) 和 (20),计算每个开发和探索阶段的最终成本。探索和开发阶段的参数 α 和 δ 在搜索操作期间根据每个阶段获得的结果而变化。优先考虑多样性;否则,将减少优先级多样性组件,如果参数 α 的值接近 1,则优先考虑共振组件。根据等式 (22),如果探索阶段函数的成本大于开发函数的成本,则开发函数的参数 α 的值将受到线性惩罚,其值为 0.01;另一方面,开发阶段参数 α 的值将接近最大值 1。但是,如果开发阶段函数的成本高于探索函数的成本,则上述程序将相反。该方法在 [61] 中被采用。lc 是从开发和探索阶段获得的改进中的计算成本差异的集合,其中包括一组非零值()。

探索阶段

在探索阶段,我们受到美洲狮寻找食物的行为启发。在这个阶段,美洲狮在其领地内进行随机搜索,以寻找食物,或者随机靠近其他美洲狮并利用它们的猎物。因此,美洲狮会随机地跳入搜索空间,或者在美洲狮之间的空间中寻找食物。首先,整个种群按升序排序,然后美洲狮使用等式 (24) 在探索阶段改进其解决方案。

在等式 (25) 中, 是问题的下限和上限, 是在问题的维度范围内随机生成的数字,范围在 0 和 1 之间。 也是在 0 和 1 之间随机生成的数字。, , ,, , 和$ {X}{f.G}$ 是随机选择的整个种群中的解决方案。G 也是使用等式 (26) 计算的,其中¥ {rand}{2}$ 是在 0 和 1 之间均匀分布的随机生成的数字。根据等式 (25),根据现有条件选择两个方程中的一个来产生不同的解决方案,然后将生成的新解决方案应用于改进当前解决方案。

在等式 (27) 中, 是使用等式 (25) 生成的解决方案。 是在问题的维度范围内随机生成的整数。 也是在 0 和 1 之间均匀分布随机生成的数字。 也是使用等式 (28) 计算的。 是在优化过程之前设置的参数;它的值是在 0 和 1 之间的数字。在每次迭代中,根据等式 (30) 中的条件,如果满足此条件,则替换为新解决方案的维度数量增加,这种增加是使用等式 (28–30) 进行的。在等式 (29) 中, 是美洲狮的总数。根据等式 (30) 中的条件改进解决方案,只有在满足此条件时才更新解决方案的维度。这个动作导致避免局部最优,并且产品解决方案具有良好的多样性。另一方面,在探索阶段解释的机制,考虑到在每次迭代的开始,根据其成本,搜索代理被按升序排序,高质量的解决方案被放在第一位,然后根据等式 (28–30) 在开始时,高质量的解决方案不会发生太多变化,因为参数 的值很小。然而,随着该参数的增加,成本较高的解决方案将发生许多变化,这种方法导致在问题空间中探索较差的解决方案,以寻找问题空间中的重要最优点。关键点是,如果生成的美洲狮不比当前的美洲狮更好,那么等式 (30) 将不会被执行,因为如果得到改进,就没有必要增加冗余的发现。但是,具有良好质量的解决方案经历了少量的变化,仅尝试避免陷入局部最优的陷阱。最后,使用等式 (31) 将新生成的解决方案替换为当前解决方案。

利用

在利用PO算法进行利用阶段时,使用了两种不同的操作符来改进解决方案,这两种机制基于美洲狮的两种行为,即埋伏和猛冲。在自然界中,美洲狮试图在灌木丛或树木和岩石上埋伏它们的猎物。在某些情况下,它会追逐猎物,这种行为使用等式 (32) 进行模拟。

等式 (32) 显示了PO中使用的两种策略。考虑到在美洲狮中,用于捕猎的第一种模式,在利用阶段,对于奔跑和埋伏策略,使用等式 (32) 中的第一种情况,并且除法运算执行此操作以模拟美洲狮向猎物的快速奔跑。根据等式 (32),如果在 0 到 1 之间均匀分布的随机产生的数字 大于 0.5,则执行快速奔跑策略,否则选择埋伏策略,它由两种不同的操作组成,第一种用于模拟美洲狮向其他美洲狮的猎物进行短距离跳跃,第二种用于向最佳美洲狮的猎物进行长距离跳跃。根据等式 (32),平均值表示平均函数, 表示所有解决方案的总和, 是执行优化过程的整个种群的数量。 是整个种群中随机选择的解决方案, 是随机生成的 0 或 1。此外, 是当前迭代中的当前解决方案, 是在优化过程之前必须调整的静态参数。另外, 是整个种群的最佳解, 是在 0 到 1 之间随机生成的随机数。 表示指数函数, 是在问题的维度和正态分布中随机生成的随机数, 是根据等式 (33) 选择的随机解决方案。

在等式 (33) 中,将 的每个元素四舍五入到最接近的整数, 是在 0 到 1 之间随机生成的随机数, 是美洲狮的总数。最后, 分别由等式 (34–36) 计算。

在等式 (35) 中,是在问题的维度和正态分布中的随机数。 表示当前迭代数, 表示执行优化操作的总迭代数。 表示指数函数。

在等式 (36–38) 中,都是在正态分布和问题的维度中随机生成的随机数。 是在 0 到 1 之间随机生成的随机数。

PO算法测试

使用CEC2019 函数与其他主流优化算法的收敛性能对比:

解决聚类问题所得到的收敛图对比为:

参考文献:DOI: 10.1007/s10586-023-04221-5 Authors: Benyamin Abdollahzadeh, Nima Khodadadi, Saeid Barshandeh, Pavel Trojovský ,Farhad Soleimanian Gharehchopogh, El-Sayed M. El-kenawy, Laith Abualigah, Seyedali Mirjalili

控我所思VS制之以衡
专注于控制理论、控制工程、数学、运筹、算法等方面的经验积累与分享
 最新文章