梁 靜, 劉 睿, 瞿博陽, 岳彩通
(1.鄭州大學 電氣工程學院,河南 鄭州 450001;2.中原工學院 電子信息學院,河南 鄭州 450007)
當今很多優(yōu)化問題已經從簡單問題發(fā)展成為復雜問題.許多科學和工程應用問題都可以設計成大規(guī)模優(yōu)化問題來進行求解,例如:大型電力系統(tǒng)、大量的資源調度問題、大規(guī)模交通網絡的車輛路徑規(guī)劃等.然而隨著優(yōu)化問題越來越復雜,一些經典的算法已經不能滿足實際需要.最近幾年進化優(yōu)化在許多實值和組合優(yōu)化問題上取得了很大的成功,但是大多數的隨機優(yōu)化算法都會遭受“維數災難”.因此,近些年學者們利用進化算法進行了多種有價值的嘗試,并且針對大規(guī)模優(yōu)化問題組織了專題會議,如Special Session on Evolutionary Computation for Large Scale Global Optimization,設計了新的測試函數、建立了相關的網站,并且在IEEE Transactions on Evolutionary Computation、Information Sciences、Soft Computing、Applied Soft Computing等優(yōu)秀期刊也刊登了對于大規(guī)模問題的研究進展,顯示出此研究領域的重要性.
大規(guī)模優(yōu)化問題可以用式(1)表述:
min/maxF(x)=f(x1,x2,…,xn),x∈X.
(1)
式中,X?n表示可行解集;n表示搜索空間的維數(即決策變量的個數);x=(x1,x2,…,xn)∈n表示決策變量;f:X→則表示一個從n維空間映射到一維適應度值F(x)的實值非連續(xù)性目標函數.在大規(guī)模設置中決策變量的個數n一般大于100[1],通常達到1 000維以上.
在算法開始階段,文獻[2]給出了針對大規(guī)模問題的初始化方法,可以更加有效地尋找極點.而對于算法的主體部分,一般來說主流的策略可以分為兩大類:協(xié)同進化策略和不分組策略.協(xié)同進化策略是由分治策略進化而來,主要思想是把大規(guī)模復雜問題分解成單變量或低維簡單問題逐一解決;而不分組策略是運用一些特殊的策略或聯(lián)合其他有效的算法來改進它們在解決大規(guī)模問題時的性能.
種群初始化方法主要包括以下5類:隨機方法、定值設定法、兩步式方法、混合方法和具體應用法.隨機生成是最常用的方法,然而,在面對大規(guī)模優(yōu)化問題(決策變量超過100)時,這種初始化方法效果不佳.文獻[2]主要列出了一些不同初始化方法的對比研究.
在隨機方法中,比較常用的是使用隨機數產生器隨機生成.而定值設定法則比較偏向于在搜索空間中產生均勻分布的點,在缺乏問題先驗知識的情況下,一個比較均勻的種群可以促進算法在迭代早期的探索能力.近些年,兩步式初始化方法在研究中較為常用,此方法分為前期產生初始點,后期根據條件改進這些點.混合方法一般來說是一些基礎方法的組合.具體應用法則是指根據一些特殊的實值問題專門設計的初始化方法.文獻[3]給出了現在常用的8種初始化方法(與DE算法相結合)的測試結果,使用的測試函數是CEC’2008[4].
學者們一般根據算法在不同階段的特性設置不同的策略來解決低維問題,所以,針對大規(guī)模優(yōu)化問題改進這些策略是一種比較常用的方法.
2.2.1 子代產生策略
一般來說,每種進化算法都有固定的子代產生策略.但是,對于大規(guī)模問題,使個體廣泛分布在高維空間中比較困難.在每次迭代過程中,算法不斷的收斂,因此下一代的學習策略很重要,不僅要向好的方向進化還要在搜索空間中廣泛探索.文獻[5]提出了反向學習策略,這種產生策略具有空間的導向性,可以增加種群的多樣性,因此將其融入DE算法來解決大規(guī)模優(yōu)化問題.文獻[6]提出了基于廣義反向學習的DE算法,該算法用廣義反向學習方法(generalized opposition-based learning,GOBL)產生子代個體,用DE算法對產生的個體進行優(yōu)化. 圖1表示4個不同的廣義反向學習的模型,其中,x是當前解,x*是反向解.
圖1 4個不同的廣義反向學習模型Fig.1 Four different GOBL models
圖 1分別表示了文獻[6]中所使用的4個GOBL模型,其中a表示搜索空間的下界,b表示搜索空間的上界,而GOBL-R模型是上述模型的一般表達式.當k=0時,是GOBL-SS模型;當k=1/2時,是GOBL-SI模型;當k=1時,是OBL模型.這些模型用于產生新個體并與原始個體混合進行選擇.
2.2.2 新的變異策略
JADE是Zhang于2009年提出把變異策略和外部存檔策略相結合的自適應方法[7].在無存檔策略中,突變向量用式(2)產生:
Fi·(xr1,g-xr2,g),
(2)
筆者在比較當前種群時,發(fā)現劣解可以為種群進化方向提供有用的信息.定義A為劣解歸檔集;P為當前種群;有存檔的突變策略“DE/current-to-pbest/1”的突變向量用式(2)產生時,xr2,g是從P∪A中隨機選擇的個體.
文獻[8]則給出了針對大規(guī)模全局優(yōu)化的連續(xù)差分進化鄰域搜索算法(sequential differential evolution enhanced by neighborhood search,SDENS),此算法主要分為兩部分:①針對每個個體通過局部和全局鄰域搜索策略產生兩個實驗個體;②從當前個體和兩個新產生的實驗個體中選取合適的一個作為新的當前個體.局部和全局鄰域搜索策略在文獻[8]中是一種突變策略.
一般來說,DE/target-to-best/1突變策略(如式(3)所示)主要著重于開發(fā)(exploitation),即所有的個體都會向同樣的最優(yōu)點Xbest移動,這樣就造成算法收斂過快[9].Das等在文獻[9]中改進了DE/target-to-best/1突變策略,提出了兩個突變策略:局部鄰域和全局鄰域.
Vi,G=Xi,G+F·(Xbest,G-Xi,G)+
F·(Xr1,G-Xr2,G),
(3)
式中:Xbest,G表示在當前代G種群的最優(yōu)位置;r1、r2∈{1,2,…,Np},且i≠r1≠r2.
局部鄰域突變中最優(yōu)位置是小鄰域中的最優(yōu)位置,不是全部種群的最優(yōu).改進后的模型表示如式(4):
Li,G=Xi,G+α·(Xn-besti,G-Xi,G)+
β·(Xp,G-Xq,G),
(4)
式中:下標n-besti,G表示Xi,G鄰域的最優(yōu)個體;鄰域大小是k;p、q∈[i-k,i+k]且p≠q≠i.個體會向其相應鄰域的最優(yōu)點靠近,特殊點的吸引力減弱,這樣就避免陷入局部最優(yōu).
全局鄰域突變在原始DE/target-to-best/1突變策略中加上了α和β這兩個比例因子,如式(5)所示:
Gi,G=Xi,G+α·(Xbest,G-Xi,G)+
β·(Xr1,G-Xr2,G).
(5)
針對這兩個突變策略,文獻[9]采用一個權重w∈(0,1)合并成一個新的突變策略,如式(6)所示:
Vi,G=w·Gi,G+(1-w)·Li,G.
(6)
2.2.3 自適應策略
自適應策略可以適應多種類型的測試函數集,對于全局優(yōu)化的問題比較有效,但是此策略一般都局限在低維問題中.所以Yang在文獻[10]中針對大規(guī)模優(yōu)化問題對自適應策略進行了擴展,提供了更加廣泛的參數自適應方案,提出了廣義自適應差分進化算法(generalized adaptive DE, GaDE).一般的自適應策略可以被分為兩類:基于啟發(fā)式規(guī)則的和基于概率分布規(guī)則的.基于啟發(fā)式規(guī)則的策略一般會引進一些新的參數,而且這些參數在某些情況下設置比較困難,JDE和DEGL算法就是用的此類策略.而SaDE、SaNSDE和JADE則屬于基于概率分布的自適應方法.在這類算法中,不同的參數值是根據某一概率分布隨機產生的,在進化操作和選擇過程之后,好的參數值將作為下一次進化的分布規(guī)律被記錄下來,用于產生更好的解.文獻[10]中提出的自適應方式用的是第二類基于概率分布的策略.對于一個給定的進化算法,假設它有一個基于個體且非常敏感的參數A∈[Amin,Amax],同時此參數需要在進化過程中調整. 對于大規(guī)模優(yōu)化問題,自適應策略不僅用在算法的參數調節(jié)上,在2.3節(jié)的分組策略中也有應用.
2.2.4 局部搜索策略
文獻[11]把基于局部搜索的動態(tài)多種群粒子群優(yōu)化算法(dynamic multi-swarm particle swarm optimizer with local search, DMS-L-PSO)擴展到大規(guī)模問題上,并取得了良好的效果.DMS-PSO是根據鄰域結構把大種群分成很多小種群,這些小種群利用不同的重組策略被頻繁重組,在頻繁重組的過程中,種群不斷交換它們之間的信息.而局部搜索策略是解決大規(guī)模優(yōu)化問題的一種有效方法,主要加強算法的局部搜索能力.
把局部搜索策略加入DMS-PSO算法中:①每L代,根據小種群適應度值進行排序,利用準牛頓法根據局部最優(yōu)解抽取小種群的前25%;②在搜索算法的結尾,利用準牛頓法更改當前的最優(yōu)解.
2.2.5 新的進化策略
在解決大規(guī)模優(yōu)化問題上,除了在原有的算法中加入新的策略,Cheng等也提出了一些新的群集智能算法用于解決此類問題.文獻[12]提出了社會學習的粒子群優(yōu)化算法(social learning particle swarm optimization algorithm, SL-PSO),不同于經典的粒子群優(yōu)化算法(particle swarm optimization, PSO)利用歷史信息(包括整個種群的最優(yōu)位置global best和每個粒子的歷史最優(yōu)位置personal best)更新粒子,新算法則是粒子向當前種群中比它優(yōu)秀的個體學習, 具體的學習方式如圖 2所示.
圖2 SL-PSO的種群排序及學習行為Fig.2 Swarm sorting and behavior learning in SL-PSO
首先,對當前種群按適應度值排序,如果要更新第i個粒子,就向比第i個粒子好的個體(即圖 2中的被學習者)和平均位置學習.而文獻[13]則提出了競爭學習算法(competitive swarm optimizer,CSO),即隨機從當前種群中抽取兩個個體比較適應度值,失敗者向勝利者學習,勝利者并不學習直接進入下一次循環(huán),如圖 3所示.
圖3 CSO的一般構架Fig.3 The general idea of CSO
2.2.6 小種群搜索策略
文獻[14]介紹了小種群搜索策略(minimum population search, MPS),這個策略主要是針對多模態(tài)問題.為了提高MPS在解決多模態(tài)問題時的性能,文獻[15]使用了閾值收斂(threshold convergence, TC)方法來完成有序無偏的探索(exploration).MPS使用了相對較小的種群來提高可擴展性,種群越小,循環(huán)的代數越多,評價次數的利用率越高.如果種群大小n小于問題維數d,將其種群定義為n-1 維超平面.新解要嚴格按照所定義的超平面產生.在MPS中,每個種群成員用式(7)的方式初始化:
Sk= (rs1·bound/2,rs2·bound/2,…,
rsi·bound/2,…,rsn·bound/2),
(7)
式中:Sk是第k個粒子;rsi是介于-1到1之間的隨機數;bound是維數上界.
閾值按式(8)更新:
min_stepi=α·diagonal·([FEs-k]/FEs)γ,
(8)
式中:α是主要空間對角線的分數;FEs是總評價次數;k是使用過的評價次數;γ是控制閾值衰減率的參數(注:max_stepi=2·min_stepi).
根據式(9)用父代產生子代:
triali=xi+Fi·(xi-xc)+Ostep_i·orth,
(9)
式中:xi和xc分別是父代中的個體及父代的中心點;Fi是范圍為[-max_step,max_step]均勻分布的隨機數.為了確保產生的新試探解在閾值范圍之內,增加了正交算子.
在大規(guī)模優(yōu)化問題中,由于增加了維數,MPS的種群也會增加,而這些增加的種群會使評價次數的有效利用率降低.為了增加這一利用率,MPS的種群大小將會動態(tài)減小如式(10)所示:
pop_sizet=init_pop·((FEs-k)/FEs).
(10)
分組策略是指將原始的大規(guī)模問題分解成一系列小且簡單的子問題,用分別優(yōu)化獨立子問題的方式解決.這種被稱為分治策略最早是由Descartes在文獻[16]中提出的,后來Potter在文獻[17]中介紹了分組策略在大規(guī)模問題的求解方法,設計了協(xié)同進化(cooperative coevolution, CC)算法來改進標準遺傳算法的性能.
協(xié)同進化策略在早期是靜態(tài)分組的,分組并不會改變,但是這種方法在解決不可分或部分可分問題時主要依賴于在初始化時的分組情況,性能很不穩(wěn)定,所以在改進該策略時使用動態(tài)分組方法,包括隨機動態(tài)分組和學習動態(tài)分組.
2.3.1 基于靜態(tài)分組的協(xié)同進化算法
Potter在文獻[17]中提出了協(xié)同進化遺傳算法(cooperative coevolutionary genetic algorithms, CCGAs),但是CCGA-1和CCGA-2只在最高為30維的問題中測試.2004年Frans 等在文獻[18]中將該策略和粒子群優(yōu)化算法(PSO)相結合,提出了CPSO-SK和CPSO-HK.CPSO-SK將維數分為K組,每組的維數是[n/K],用PSO算法對每組的維數進行更新.雖然CPSO-SK可以跳出次優(yōu)解,但是在一些測試函數中收斂過快,為了使算法同時具有PSO的開發(fā)能力,CPSO-HK把這兩種算法結合起來,一部分使用CPSO-SK算法,將CPSO-SK算法的最優(yōu)解隨機賦給用PSO優(yōu)化的種群,條件滿足時停止.
2.3.2 基于動態(tài)分組的協(xié)同進化算法
對于不可分問題來說,靜態(tài)分組效率十分低.在不可分的測試函數中,決策變量存在著一些相互關系(正相關或負相關),如果把這些相互關聯(lián)的決策變量一直分在一個組內,結果并不能收斂到最小.
2.3.2.1 隨機動態(tài)分組
Yang于2008年在文獻[19]中提出了新的協(xié)同進化(cooperative coevolution,CC)框架,同時還加上了自適應權重策略.其中,新的CC框架設計成動態(tài)改變群體結構,這種設計增加了相互關聯(lián)決策變量分在一起優(yōu)化的幾率.此框架的主要思想是將n維的目標向量分成m個s維的子部分(假設n=m·s),使用EA算法對子部分進行優(yōu)化;自適應權重策略則是將每個子部分都設置一個權重,用某一算子對權重進行優(yōu)化.
文獻[20]對文獻[19]中的算法進行了改進,提出了新的多層協(xié)同進化算法(multilevel CC algorithm, MLCC),通過使用一個分解池來使分組的大小和目標函數聯(lián)系的更加緊密. MLCC算法可以自適應選擇合適的相互作用層次而不用考慮目標問題和優(yōu)化階段的特點;文獻[7]介紹的JADE算法也使用了分組策略和權重優(yōu)化的方法來尋找更加精確的解決方案.同時,這種解決方法可以加入其他的優(yōu)化算法來改進它們在大規(guī)模優(yōu)化問題中的性能.Li在文獻[21]中同樣將隨機分組的協(xié)同進化策略與自適應權重用在PSO中,提出了CCPSO算法,并且于次年提出了CCPSO2算法,完善了CCPSO算法,使其在2 000維的問題中也有很好的性能.
2.3.2.2 基于學習的動態(tài)分組
雖然動態(tài)隨機分組策略對于靜態(tài)分組來說在解決決策變量相關性問題上比較有優(yōu)勢,但是決策變量的相關性并不能完全地區(qū)分出來.為了解決不可分問題并且減少決策變量之間的相互關聯(lián),Ray在2009年提出CCEA-AVP(自適應可變分區(qū)的協(xié)同進化算法,cooperative coevolutionary algorithm with adaptive variable partitioning).該算法的過程類似于標準的EA算法,首個M(一般設為5)次迭代包含所有的變量.在下一次迭代中,使用前50%的個體計算關聯(lián)矩陣,并且將變量分成多個子種群.當變量之間的相關系數大于一個閾值時就被分到預先定義的一個子種群中,之后的每次迭代都把變量按其相關性分組.
文獻[22]給出了辨識變量之間的相互關系的一個簡單方法,“best”是目前的最優(yōu)解;“new”是使用CC算法優(yōu)化第i維后的最優(yōu)個體;“rand”是隨機從種群中選擇的個體.根據這3個向量產生新的個體,如式(11)所示:
(11)
若f(x′)比f(x)的適應度值好,則維數i和j相互關聯(lián)的概率增加.
為了對比算法的性能,一般用統(tǒng)一的測試函數來測試.文獻[4]介紹了針對大規(guī)模優(yōu)化問題的CEC’08專題會議函數測試集.CEC’10專題會議上的大規(guī)模優(yōu)化算法測試集[4]則包含20個測試函數.為了更好地代表實際問題范圍廣泛的特性及對于基于分組的優(yōu)化算法提供更加完備的測試,提出了CEC’13的測試函數集.與CEC’10的區(qū)別在于:CEC’10編寫的不可分子部分的大小是均等的;而CEC’13則根據實際問題使不可分子部分的大小不均等,其相應變量的貢獻度也會有所區(qū)分,并且不可分子部分也會有所覆蓋,另外還具有病態(tài)、對稱破裂及不規(guī)則等屬性.CEC’13中包含了15個測試函數,這些測試函數均有平移和旋轉特性.
測試函數為CEC’08和CEC’10中的測試函數,主要測試的維數是1 000維,使用評價次數記錄測試結果.在對比算法時保證最大評價次數相同,對算法的優(yōu)化結果進行對比.
采用CEC’08測試集的主要有CODE、sep-CPM-ES、CSO、CCPSO、DECC-G、CDECC、MTS、CCPSO2、EPUS-PSO、DMS-PSO、MLCC.文獻[21]中將算法CSO、CCPSO2、MLCC、sep-CMA-ES、EPUS-PSO、DMS-PSO進行了對比,并且采用了T檢驗方法對結果進行了統(tǒng)計.DMS-PSO可以準確地找出f1和f5的全局最優(yōu),其他5個函數的測試結果卻沒有CSO好.在與MLCC比較時,對于函數f4測試結果顯示,MLCC明顯優(yōu)于CSO,而測試函數f4是shifted Rastrigin function,具有十分多的局部最優(yōu)解,MLCC中針對每組的優(yōu)化使用的是微分進化變異的方法.而CCPSO2的收斂性是這幾個算法中最快的.sep-CMA-ES和EPUS-PSO在CEC’08的測試結果相比來說并不好.文獻[21]同樣是采用T檢驗來顯示測試結果,因為CCPSO中含有一些用戶自定義的參數,所以文獻中對每個參數進行了測試,總的來說,除了函數f1、f2和f3,CCPSO2的性能要比DECC-G的好.文獻[24]直接列出了CDECC和MTS在CEC’08上的測試結果,并使用Friedman檢驗了算法之間是否具有顯著性差異,其置信度為0.05.測試結果表明CDECC在函數f6和f7中結果比較好,在f3、f4和f5沒有MTS性能好,但是兩者沒有顯著性差異.
使用CEC’10測試函數集主要有DECC-DG、MOFBVE、DECC-DML、DECC-G、DECC-D和MLCC等算法.文獻[23]主要對比了DECC-DML、DECC-G、DECC-D和MLCC算法的測試結果,DECC-DML算法在20個測試函數結果中有14個函數的表現比DECC-G和DECC-D好,在與MLCC的比較中有12個函數的測試結果比較好,并且在文獻[23]中使用多次運行的成功率來顯示算法的性能.文獻[25]主要是DECC-DG和MOFBVE的對比,MOFBVE算法的7個測試函數結果比DECC-DG優(yōu)秀,但是在函數f11和f16中DECC-DG結果比較好.
筆者主要總結了幾個大規(guī)模優(yōu)化的常用方法,解決大規(guī)模問題主要面臨以下難點:搜索空間隨著變量增加以指數形式擴大;問題的特性隨著維數的增加變得更難,例如單峰問題可能會轉變?yōu)槎喾鍐栴};算法在解決問題時花費的代價十分大;對于協(xié)同進化策略來說,變量之間是否可分是主要的問題.
(1)分組優(yōu)化問題.協(xié)同進化策略是解決大規(guī)模問題的主要方法,但是,決策變量之間是否可分限制了協(xié)同進化策略計算,雖然使用學習的方式來判斷是否可分,但是該方法的代價隨著變量的增多而迅速加大.
(2)全部可分和全部不可分問題.在大多基準測試函數集中,都有全部可分或不可分問題,這些問題使用一般協(xié)同進化方法效果并不明顯.對于全部可分問題,顯然對每維單獨優(yōu)化比較好;但是對于不可分問題,變量的分組方式仍然是一個難題.
(3)不平衡的測試函數.在實際問題中,一般都會遇到子部分分布的不平衡特性,CEC’13大規(guī)模優(yōu)化問題測試集中就針對該特性設計了測試函數.
(4)更加高維的問題.在上述算法中,測試任務一般是1 000維的,大規(guī)模優(yōu)化方法可擴展性是未來研究工作的一個至關重要的要求.
參考文獻:
[1] MAHDAVI S, SHIRI M E, RAHNAMAYAN S. Metaheuristics in large-scale global continues optimization: a survey [J]. Information sciences, 2015, 295: 407-428.
[2] RAHNAMAYAN S,TIZHOOSHH R, SALAM M M A. A novel population initialization method for accelevating evolutionary algorithms[J]. Computers & mathenmatics with applications, 2007,53(10):1605-1614.
[3] KAZIMIPOUR B, LI X, QIN A K. Initialization methods for large scale global optimization[C]//IEEE Congress on Evolutionary Computation. Cancun: Springer, 2013: 2750-2757.
[4] TANG K, YAO X, SUGANTHAN P N, et al. Benchmark functions for the CEC’2010 special session and competition on large scale global optimization[R]. Hefei: Nature inspired computation and applications laboratory, USTC, China, 2009.
[5] RAHNAMAYAN S, TIZHOOSH H R, SALAMA M M A. Quasi-oppositional differential evolution[C]//IEEE Congress on Evolutionary Computation. Tokyo: Springer, 2007:2229-2236.
[6] WANG H, WU Z, RAHNAMAYAN S. Enhanced opposition-based differential evolution for solving high-dimensional continuous optimization problems[J]. Soft computing, 2011, 15(11): 2127-2140.
[7] ZHANG J, SANDERSON A C. JADE: adaptive differential evolution with optional external archive[J]. IEEE transactions on evolutionary computation, 2009, 13(5):945-958.
[8] WANG H, WU Z, RAHNAMAYAN S, et al. Sequential DE enhanced by neighborhood search for large scale global optimization[C]//IEEE Congress on Evolutionary Computation. Shanghai: Springer, 2010: 1-7.
[9] DAS S, ABRAHAM A, CHAKRABORTY U K, et al. Differential evolution using a neighborhood-based mutation operator[J]. IEEE transactions on evolutionary computation, 2009, 13(3):526-553.
[10] YANG Z, TANG K, YAO X. Scalability of generalized adaptive differential evolution for large-scale continuous optimization[J]. Soft computing, 2011, 15(11):2141-2155.
[11] ZHAO S Z, LIANG J J, SUGANTHAN P N, et al. Dynamic multi-swarm particle swarm optimizer with local search for large scale global optimization[C]//IEEE Congress on Evolutionary Computation. Washington: Springer, 2008: 3845-3852.
[12] CHENG R, JIN Y. A social learning particle swarm optimization algorithm for scalable optimization[J]. Information sciences, 2015, 291(6):43-60.
[13] RAN C, JIN Y. A Competitive swarm optimizer for large scale optimization[J]. IEEE Transactions on Cybernetics, 2014, 45(2):191-204.
[14] BOLUFE R A, FIOL G S, CHEN S. A minimum population search hybrid for large scale global optimization[C]//IEEE Congress on Evolutionary Computation. Sendai: Springer, 2015: 1958-1965.
[15] MONTGOMERY J, CHEN S. A simple strategy for maintaining diversity and reducing crowding in differential evolution[C]//IEEE Congress on Evolutionary Computation. Vienna: Springer, 2012: 692-2699.
[16] DESCARTES R. Discourse on method[J]. Elizabeth haldane & g.r.t.ross the philosophical works of descartes, 1998, 10(1991):11-25.
[17] POTTER M A, JONG K A D. A cooperative coevolutionary approach to function optimization[C]//International Conference on Parallel Problem Solving from Nature. Berlin, Heidelberg: Springer, 1994: 249-257.
[18] FRANS V D B, ENGELBRECHT A P. A cooperative approach to particle swarm optimization[J]. IEEE transactions on evolutionary computation, 2004, 8(3):225-239.
[19] YANG Z, KE T, XIN Y. Large scale evolutionary optimization using cooperative coevolution [J]. Information sciences, 2008, 178(15):2985-2999.
[20] YANG Z, TANG K, YAO X. Multilevel cooperative coevolution for large scale optimization[C]//2008 IEEE Congress on Evolutionary Computation. Washington: Springer, 2008: 1663-1670.
[21] LI X, YAO X. Tackling high dimensional nonseparable optimization problems by cooperatively coevolving particle swarms[C]//2009 IEEE Congress on Evolutionary Computation. Vienna: Springer, 2009: 1546-1553.
[22] WEICKER K, WEICKER N. On the improvement of coevolutionary optimizers by learning variable interdependencies[C]//IEEE Congress on Evolutionary Computation. Washington: Springer, 1999(3):1627-1633.
[23] OMIDVAR M N, LI X, YAO X. Cooperative co-evolution with delta grouping for large scale non-separable function optimization[C]//IEEE Congress on Evolutionary Computation. Shanghai: Springer, 2010: 1-8.
[24] GE H, SUN L, YANG X, et al. Cooperative differential evolution with fast variable interdependence learning and cross-cluster mutation[J]. Applied soft computing, 2015, 36: 300-314.
[25] MAHDAVI S,RAHNAMAYAN S, SHIRIM E. Muctilevel framework for large-scale global optimization[J]. Soft computing, 2017,21(14):4111-4140.