多精英采样与个体差分学习的分布估计算法
发布时间:2021-12-29 21:48
提出了基于多精英采样和差分搜索的分布估计算法EDA-M/D (Estimation distribution algorithm based on multiple elites sampling and individuals differential search)。EDA-M/D利用多精英个体独立采样生成子代来提升算法全局搜索能力,利用精英群体分布的σ2约束采样半径,实现种群从全局搜索逐步过度到局部搜索。当精英群体停滞时,劣势个体借助精英群体的?和种群历史最优解进行差分搜索,帮助种群跳出局部最优解。通过多精英采样与差分搜索的自适应协同实现种群宏观信息与个体微观信息的有机融合。实验结果表明EDA-M/D在稳定性和搜索能力方面均表现出明显的优势。
【文章来源】:系统仿真学报. 2020,32(03)北大核心CSCD
【文章页数】:12 页
【部分图文】:
多精英个体采样与传统EDA采样结果对比Fig.1Comparisonresultbetweenmultipleelitessampling
第32卷第3期系统仿真学报Vol.32No.32020年3月JournalofSystemSimulationMar.,2020http:∥www.china-simulation.com386式中:Lp用以控制劣势个体第j个基因位执行修复操作的概率。类似的,对新生成的子个体也采用式(9)的贪心策略保留个体。EDA-M/D在上述2个策略中均采用式(9)所示的贪心保留策略可用图2来表示。可以看出,通过当代精英个体并行独立采样得到新的子个体后,若采用EDA常用的保留策略,则距离全局最优解最近的精英个体(即图中左下角的精英个体)采样得到的子代个体会因为劣于另外2个精英个体及相应采样得到的子个体而被抛弃掉,这也使得子代种群远离了全局最优解而陷入了局部最优。反之,若采用式(9)所示的保留策略,距离全局最优解附近的精英个体采样得到的子代个体尽管适应值并非属于精英群体,但依然会被保留下来,从而保证了种群的全局搜索能力。图2贪心保留策略示意图Fig.2Processofgreedyreservationstrategy2.3劣势个体差分学习通过上述MES和NGR策略生成第t+1代的个体后,若新种群中的E个精英的适应值与t–1代中的E个精英的适应值完全相同,则说明基于上述子代生成策略无法挖掘有益信息指导种群的搜索,本文将这种情况视为精英群体出现停滞。当精英群体连续停滞代数stay达到设定阈值staymax时,N–E个劣势个体(1,2,,)ktiXkEEN向式(5)所示的精英分布概率模型的t1j和当前种群最优个体1111bestbest,1best,2best,[,,,]ttttDxxxX进行差分学习来产生新的个体kiTmpX学习方式如式(11)所示。该学习方式的意义
对比算法在CEC2017测试集上的收敛过程对比f29f30
【参考文献】:
期刊论文
[1]基于一般二阶混合矩的高斯分布估计算法[J]. 任志刚,梁永胜,张爱民,庞蓓. 自动化学报. 2018(04)
[2]基于概率分布的多峰演化算法[J]. 陈伟能,杨强. 计算机研究与发展. 2017(06)
[3]改进的正态分布的分布估计算法[J]. 邱玲,高尚,曹存根. 计算机科学. 2015(08)
[4]基于高斯分布估计的细菌觅食优化算法[J]. 刘小龙,李荣钧,杨萍. 控制与决策. 2011(08)
[5]分布估计算法综述[J]. 周树德,孙增圻. 自动化学报. 2007(02)
本文编号:3556918
【文章来源】:系统仿真学报. 2020,32(03)北大核心CSCD
【文章页数】:12 页
【部分图文】:
多精英个体采样与传统EDA采样结果对比Fig.1Comparisonresultbetweenmultipleelitessampling
第32卷第3期系统仿真学报Vol.32No.32020年3月JournalofSystemSimulationMar.,2020http:∥www.china-simulation.com386式中:Lp用以控制劣势个体第j个基因位执行修复操作的概率。类似的,对新生成的子个体也采用式(9)的贪心策略保留个体。EDA-M/D在上述2个策略中均采用式(9)所示的贪心保留策略可用图2来表示。可以看出,通过当代精英个体并行独立采样得到新的子个体后,若采用EDA常用的保留策略,则距离全局最优解最近的精英个体(即图中左下角的精英个体)采样得到的子代个体会因为劣于另外2个精英个体及相应采样得到的子个体而被抛弃掉,这也使得子代种群远离了全局最优解而陷入了局部最优。反之,若采用式(9)所示的保留策略,距离全局最优解附近的精英个体采样得到的子代个体尽管适应值并非属于精英群体,但依然会被保留下来,从而保证了种群的全局搜索能力。图2贪心保留策略示意图Fig.2Processofgreedyreservationstrategy2.3劣势个体差分学习通过上述MES和NGR策略生成第t+1代的个体后,若新种群中的E个精英的适应值与t–1代中的E个精英的适应值完全相同,则说明基于上述子代生成策略无法挖掘有益信息指导种群的搜索,本文将这种情况视为精英群体出现停滞。当精英群体连续停滞代数stay达到设定阈值staymax时,N–E个劣势个体(1,2,,)ktiXkEEN向式(5)所示的精英分布概率模型的t1j和当前种群最优个体1111bestbest,1best,2best,[,,,]ttttDxxxX进行差分学习来产生新的个体kiTmpX学习方式如式(11)所示。该学习方式的意义
对比算法在CEC2017测试集上的收敛过程对比f29f30
【参考文献】:
期刊论文
[1]基于一般二阶混合矩的高斯分布估计算法[J]. 任志刚,梁永胜,张爱民,庞蓓. 自动化学报. 2018(04)
[2]基于概率分布的多峰演化算法[J]. 陈伟能,杨强. 计算机研究与发展. 2017(06)
[3]改进的正态分布的分布估计算法[J]. 邱玲,高尚,曹存根. 计算机科学. 2015(08)
[4]基于高斯分布估计的细菌觅食优化算法[J]. 刘小龙,李荣钧,杨萍. 控制与决策. 2011(08)
[5]分布估计算法综述[J]. 周树德,孙增圻. 自动化学报. 2007(02)
本文编号:3556918
本文链接:https://www.wllwen.com/kejilunwen/sousuoyinqinglunwen/3556918.html