本文主要是介绍基于儿童绘画发展优化算法的函数寻优算法,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
文章目录
- 一、理论基础
- 1、儿童绘画发展优化算法
- (1)第一阶段(涂鸦)
- (2)第二阶段(开发)
- (3)第三阶段(黄金比例)
- (4)第四阶段(创造力)
- (5)第五阶段(模式记忆)
- 2、CDDO算法伪代码
- 二、仿真实验与结果分析
- 三、参考文献
一、理论基础
1、儿童绘画发展优化算法
文献[1]从儿童学习行为和认知发展的角度出发,提出了一种新的元启发式算法——儿童绘画发展优化(Child Drawing Development Optimization, CDDO)算法。
(1)第一阶段(涂鸦)
孩子尝试发现绘画的第一次涂鸦主要是随机的标记。这个阶段的孩子观察和发现运动和手的压力。运动可以是线性的,也可以是弯曲的,因为孩子观察到直线的运动会产生直线,而手的任何其他运动都会产生曲线。本阶段手压不合理、过高或过低都将在接下来的阶段进行改进,并考虑许多其他因素——初始化解 X i , j , i = 1 , 2 , ⋯ , N X_{i,j},i=1,2,\cdots,N Xi,j,i=1,2,⋯,N。
其中, X X X是表示具有不同决策变量(如手压、黄金比例、长度和绘画宽度)的儿童绘画的当前解决方案,其中几个决策变量被记录为 i i i,参数的数量被记录为 j j j。
(2)第二阶段(开发)
在这一阶段,孩子学习通过控制运动和方向来创建形状。在这一阶段,绘画更加标准和复制,孩子将他/她的绘画与他/她所学的最佳模式进行比较,并定义到目前为止的最佳草图,还通过模仿周围最好的艺术家并将他们的绘画与小组迄今为止的最佳素描进行比较来重新创建新的涂鸦。
手的压力是区分孩子表现的因素之一。虽然手的压力是相关的,但孩子的水平很高。同时,这表明孩子有足够的技巧来用低的手压力和精确的黄金比例来画一幅画。首先,使用式(1)生成随机手压( R H P RHP RHP)。 R H P RHP RHP是问题的下界( L B LB LB)和解的上界( U P UP UP)之间的一个随机数,它是用当前解的手压( H P HP HP)来评估当前解的手压而产生的一个因子。 H P HP HP为手压时,使用式(2)从当前解的参数中选择 H P HP HP, j j j为多个解参数。 R H P = r a n d ( L B , U P ) (1) RHP=rand(LB,UP)\tag{1} RHP=rand(LB,UP)(1) H P = X ( i , r a n d ( j ) ) (2) HP=X(i,rand(j))\tag{2} HP=X(i,rand(j))(2)
(3)第三阶段(黄金比例)
孩子现在正处于运用从经验中学到的技巧的阶段,并利用反馈来观察实际图片中的图案,尝试赋予图画意义,通过临摹、练习、充满激情(带着步法)来练习创作图画。应用这些行为后,检查孩子的技能,通过评估手压 H P HP HP,并与 R H P RHP RHP进行了比较。如果它小于 R H P RHP RHP,那么将使用式(2)更新解决方案,考虑到儿童的技能率( S R SR SR)和水平率( L R LR LR),这是两个随机数,最初介于(0-1)之间,如果儿童确实有相关的手压,之后将介于(0.6-1)之间。将 S R SR SR和 L R LR LR设置为高(0.6-1)表明儿童确实具有准确的知识和技能水平,尽管这可以通过考虑 G R GR GR因素来发展。另一个用于更新解决方案并提高其性能的因素是黄金比例(Golden Ratio, GR)。GR是解决方案中选择的两个因素之间的比率,即儿童绘画的长度和宽度(见式(4))。使用(式(5))从问题的所有因素中随机选择这两个因素中的每一个。 X i + 1 = G R + S R ⋅ ∗ ( X i l b e s t − X i ) + L R ⋅ ∗ ( X i g b e s t − X i ) (3) X_{i+1}=GR+SR\cdot *(X_{ilbest}-X_i)+LR\cdot*(X_{igbest}-X_i)\tag{3} Xi+1=GR+SR⋅∗(Xilbest−Xi)+LR⋅∗(Xigbest−Xi)(3) X i G R = X i L + X i W X i L (4) X_{iGR}=\frac{X_{iL}+X_{iW}}{X_{iL}}\tag{4} XiGR=XiLXiL+XiW(4) L , W = r a n d ( 0 , j ) (5) L,W=rand(0,j)\tag{5} L,W=rand(0,j)(5)在式(3)中, X i l b e s t X_{ilbest} Xilbest为局部最优解; X i g b e s t X_{igbest} Xigbest为全局最优解; G R GR GR是幼儿绘画的长( L L L)与宽( W W W)之比。
(4)第四阶段(创造力)
每个孩子都有通过经验和观察周围环境而获得的创造力和技能。创造力是让任何艺术作品在视觉上更具吸引力的一个因素。在这个阶段,孩子正在结合信息来更新具有黄金比例或接近黄金比例的解决方案。然而,这个解决方案没有相关的手压力,这表明孩子的技能还没有得到很大的发展,需要使用创造力因素和黄金比例来提高。此外,任何孩子都能记住最好的学习实践,并试图模仿相同的过程,以获得更好的结果。为此,为算法中的每个解决方案创建一个模式内存( P M PM PM),图案的大小可以根据问题的不同而改变。
在 P M PM PM数组中随机选择一个解用于更新性能不佳的解是提高算法收敛速度的技术之一,在现实生活中,它提高了儿童的学习速度。在(式(6))中同时使用 C R CR CR和 P M PM PM,用于更新当前解并收敛到最优解。通过考虑创造性因子,即试错设定的一个固定值 C R = 0.1 CR = 0.1 CR=0.1,增加了改进。之后, S R SR SR和 L R LR LR都被设置为较低(0-0.5),这表明儿童的知识和技能率水平不准确,尽管可以通过考虑创造力和模式记忆来发展。 X i + 1 = X i M P + C R ⋅ ∗ ( X i g b e s t ) (6) X_{i+1}=X_{iMP}+CR\cdot*(X_{igbest})\tag{6} Xi+1=XiMP+CR⋅∗(Xigbest)(6)
(5)第五阶段(模式记忆)
添加一些其他的细节和更精确,并将它们与所有最好的图纸进行比较,使用以前的知识和技能。这种行为被应用到算法中,通过从十个孩子最好的画中随机选择一个来更新当前的画,它有一个精确的黄金比例,但手的压力无关紧要。这一阶段主要关注图纸的详细尺寸。该行为通过agent的个人最佳更新机制表现出来,因此被应用到算法中。如果有更好的解决方案,它将在何时更新解决方案,这对于更新总体的全局最佳解决方案是正确的。在每次迭代中使用到目前为止达到的最佳全局解决方案更新模式内存时,此行为也将成立。
2、CDDO算法伪代码
CDDO算法伪代码如图1所示。
二、仿真实验与结果分析
将CDDO与WOA、PSO、GSA和DE进行对比,以常用23个测试函数中的F1、F2(单峰函数/30维)、F8、F10(多峰函数/30维)、F20、F21(固定维度多峰函数/6维、4维)为例,实验设置种群规模为30,最大迭代次数为500,每种算法独立运算30次,结果显示如下:
函数:F1
CDDO:最差值: 3.2085e-320, 最优值: 0, 平均值: 1.1215e-321, 标准差: 0, 秩和检验: 1
WOA:最差值: 3.253e-70, 最优值: 1.2854e-86, 平均值: 1.0851e-71, 标准差: 5.9391e-71, 秩和检验: 5.2152e-12
PSO:最差值: 275.9756, 最优值: 50.8425, 平均值: 139.1476, 标准差: 69.1648, 秩和检验: 5.2152e-12
GSA:最差值: 1.2866e-15, 最优值: 1.2654e-16, 平均值: 2.9463e-16, 标准差: 2.251e-16, 秩和检验: 5.2152e-12
DE:最差值: 1.3962e-10, 最优值: 2.5036e-12, 平均值: 2.817e-11, 标准差: 2.9023e-11, 秩和检验: 5.2152e-12
函数:F2
CDDO:最差值: 6.2409e-154, 最优值: 3.3433e-187, 平均值: 2.0803e-155, 标准差: 1.1394e-154, 秩和检验: 1
WOA:最差值: 8.154e-50, 最优值: 5.9599e-59, 平均值: 7.6829e-51, 标准差: 1.9662e-50, 秩和检验: 3.0199e-11
PSO:最差值: 23.2967, 最优值: 6.0566, 平均值: 11.8817, 标准差: 4.2349, 秩和检验: 3.0199e-11
GSA:最差值: 2.7473, 最优值: 6.4048e-08, 平均值: 0.56139, 标准差: 0.8247, 秩和检验: 3.0199e-11
DE:最差值: 6.8707e-07, 最优值: 1.4135e-07, 平均值: 2.8029e-07, 标准差: 1.1998e-07, 秩和检验: 3.0199e-11
函数:F8
CDDO:最差值: -9571.5847, 最优值: -19819.832, 平均值: -12647.9599, 标准差: 1767.5861, 秩和检验: 1
WOA:最差值: -7194.4553, 最优值: -12568.0253, 平均值: -10187.6823, 标准差: 1861.2706, 秩和检验: 1.6351e-05
PSO:最差值: -4555.3054, 最优值: -7998.6722, 平均值: -6456.9014, 标准差: 746.1348, 秩和检验: 3.0199e-11
GSA:最差值: -1891.0357, 最优值: -3491.5106, 平均值: -2532.3834, 标准差: 404.1307, 秩和检验: 3.0199e-11
DE:最差值: -10306.4424, 最优值: -11740.4183, 平均值: -11044.6692, 标准差: 386.7444, 秩和检验: 2.1947e-08
函数:F10
CDDO:最差值: 1.5099e-14, 最优值: 8.8818e-16, 平均值: 8.4673e-15, 标准差: 4.4484e-15, 秩和检验: 1
WOA:最差值: 7.9936e-15, 最优值: 8.8818e-16, 平均值: 4.3225e-15, 标准差: 2.3756e-15, 秩和检验: 0.00016281
PSO:最差值: 7.8226, 最优值: 4.3852, 平均值: 6.1867, 标准差: 0.97679, 秩和检验: 2.3982e-11
GSA:最差值: 1.1551, 最优值: 7.5841e-09, 平均值: 0.038505, 标准差: 0.2109, 秩和检验: 2.3982e-11
DE:最差值: 1.1551, 最优值: 3.3078e-07, 平均值: 0.17014, 标准差: 0.38962, 秩和检验: 2.3982e-11
函数:F20
CDDO:最差值: -2.173, 最优值: -3.2246, 平均值: -2.9065, 标准差: 0.24686, 秩和检验: 1
WOA:最差值: -2.8308, 最优值: -3.3219, 平均值: -3.2415, 标准差: 0.11058, 秩和检验: 1.6947e-09
PSO:最差值: -3.1376, 最优值: -3.322, 平均值: -3.2798, 标准差: 0.067801, 秩和检验: 9.9186e-11
GSA:最差值: -0.65674, 最优值: -2.8247, 平均值: -1.5817, 标准差: 0.50836, 秩和检验: 9.9186e-11
DE:最差值: -3.2031, 最优值: -3.322, 平均值: -3.2744, 标准差: 0.059241, 秩和检验: 4.5796e-11
函数:F21
CDDO:最差值: -6.8621, 最优值: -10.1526, 平均值: -9.7016, 标准差: 0.70169, 秩和检验: 1
WOA:最差值: -2.6295, 最优值: -10.1525, 平均值: -8.6157, 标准差: 2.6156, 秩和检验: 0.10547
PSO:最差值: -2.6305, 最优值: -10.1532, 平均值: -7.3999, 标准差: 3.4966, 秩和检验: 0.18425
GSA:最差值: -0.61304, 最优值: -10.1532, 平均值: -5.0888, 标准差: 1.6911, 秩和检验: 4.7729e-09
DE:最差值: -2.6305, 最优值: -10.1532, 平均值: -6.4759, 标准差: 3.3955, 秩和检验: 0.37763
实验结果表明:CDDO算法具有较强的竞争力。
三、参考文献
[1] Sabat Abdulhameed, Tarik A. Rashid. Child Drawing Development Optimization Algorithm Based on Child’s Cognitive Development[J]. Arabian Journal for Science and Engineering, 2022, 47: 1337-1351.
这篇关于基于儿童绘画发展优化算法的函数寻优算法的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!