王 寧,劉 勇
(上海理工大學(xué)管理學(xué)院,上海 200093)
(?通信作者電子郵箱806929086@qq.com)
智能優(yōu)化算法是受人類智能、生物群體社會性或自然現(xiàn)象規(guī)律的啟發(fā),模仿其規(guī)律所提出來的求解問題的算法,為許多傳統(tǒng)優(yōu)化技術(shù)很難解決的組合優(yōu)化問題提供了切實(shí)有效的解決辦法[1]。智能優(yōu)化算法因其全局優(yōu)化性能較好,可以進(jìn)行并行計算和通用性強(qiáng)等特點(diǎn),已廣泛應(yīng)用于系統(tǒng)控制、人工智能、生產(chǎn)調(diào)度、計算機(jī)工程等領(lǐng)域,展示出了其強(qiáng)大的優(yōu)勢,并且具有更好的應(yīng)用前景。
最有價值球員算法(Most Valuable Player Algorithm,MVPA)是Bouchekara[2]于2017 年提出的新型智能優(yōu)化算法。該算法受到體育比賽的啟發(fā),球員們?yōu)榱粟A得聯(lián)賽冠軍而進(jìn)行隊伍競爭,并且他們單獨(dú)進(jìn)行競爭以贏得MVP 獎杯。每個球員即代表一個潛在的解,通過競爭階段來不斷提高球員的水平,從而產(chǎn)生一個MVP,即對應(yīng)問題的最優(yōu)解。
MVPA 具有結(jié)構(gòu)簡單、參數(shù)設(shè)置少、收斂速度較快等優(yōu)點(diǎn),已經(jīng)應(yīng)用到降低圓形天線陣列的最大旁瓣電平的優(yōu)化問題[3]、壓力容器設(shè)計問題[4]等實(shí)際問題中;然而,MVPA 在求解復(fù)雜優(yōu)化問題時存在尋優(yōu)精度低、收斂速度慢等缺陷。為了提高算法的優(yōu)化性能,文獻(xiàn)[4]將教與學(xué)優(yōu)化算法引入MVPA中,算法設(shè)計了兩種訓(xùn)練模式來分別提高球員的能力和隊伍的凝聚力,提高了算法的收斂速度和搜索精度。
本文分析了MVPA 尋優(yōu)精度低的原因,并從球員初始化方式出發(fā),提出了考慮多種訓(xùn)練方式的自適應(yīng)最有價值球員算法(Adaptive Most Valuable Player Algorithm Considering Multiple Training Methods,ACMTM-MVPA)。球員除了通過個體競爭和隊伍競爭提升技能之外,還考慮球員為了進(jìn)入球隊而付出的努力和訓(xùn)練對提高球員技能的重要性,最后使用一系列標(biāo)準(zhǔn)測試函數(shù)和求解暴雨強(qiáng)度公式參數(shù)優(yōu)化問題對ACMTM-MVPA的有效性進(jìn)行了驗(yàn)證。
在MVPA 中,將每個球員看作一個潛在的可行解,并將球員分配到不同的隊伍中去,通過個體競爭和隊伍競爭來使球員的能力不斷提高,并最終產(chǎn)生一個MVP 球員,即算法的最優(yōu)解。算法可以分為個體競爭和隊伍競爭兩個階段,個體競爭意味著球員之間的競爭,隊伍競爭即隊伍之間的比賽。球員數(shù)量即群體的大小,球員的各種能力就是球員的維度,適應(yīng)度函數(shù)就是球員的水平,適應(yīng)度越好,說明水平越高。
首先在搜索空間內(nèi)隨機(jī)生成PlayersSize個球員,并隨機(jī)分成TeamsSize個隊伍。隊伍生成方法[2]如下:
其中:ceil為向上取整函數(shù);nT1表示第一部分的隊伍數(shù)量,nP1表示第一部分每個隊伍的隊員數(shù)量;nT2表示第二部分的隊伍數(shù)量,nP2表示第二部分每個隊伍的隊員數(shù)量。
在完成初始化之后,算法進(jìn)入競爭階段。在該階段中,球員通過隊內(nèi)競爭來提高自身能力,同時球隊為了提升其實(shí)力與其他隊伍進(jìn)行隊間競爭。下文給出球員之間的個體競爭以及球隊之間的隊伍競爭的具體方法。
1.2.1 個體競爭
在個體競爭階段,每個球員都致力于成為所在隊伍中的最佳球員(FranchisePlayer)和聯(lián)盟最有價值球員(MVP)。為此,球員努力去提高自身能力,并與所在隊伍中最佳球員和聯(lián)盟最有價值球員作比較。因此,每個球員按照如式(5)[2]更新:
其中:TEAMi表示第i個隊伍中隊員;rand是[0,1]區(qū)間服從均勻分布的常數(shù);FranchisePlayeri表示第i個隊伍中的最佳球員;MVP表示聯(lián)盟最有價值球員。
1.2.2 隊伍競爭
在球員完成個體競爭之后,球隊之間進(jìn)行隊伍競爭。在這個階段,TEAMi和TEAMj兩個隊伍相互比賽。按以下機(jī)制選取獲勝隊伍。
以最小化問題為例,首先按照式(6)標(biāo)準(zhǔn)化隊伍的適應(yīng)度[2]。
其中:fitnessN(TEAMi)是第i個隊伍未標(biāo)準(zhǔn)化的適應(yīng)度值;min(fitness(ALL Teams) 是全聯(lián)盟中最小的適應(yīng)度值。TEAMi打敗TEAMj的概率[2]如式(7)所示:
其中:文獻(xiàn)[2]中的k取1;fitnessN(TEAMi)為第i個隊伍標(biāo)準(zhǔn)化后的適應(yīng)度值;Pr表示獲勝概率。
根據(jù)式(6)~(7),獲勝概率分為不同和相同兩種情況。
如果兩個隊伍的獲勝概率不同,則會生成一個[0,1]區(qū)間的隨機(jī)數(shù),如果這個隨機(jī)數(shù)大于較高的獲勝概率,則獲勝概率較低的隊伍獲勝;反之,則獲勝概率較高的隊伍獲勝。
如果兩個隊伍的適應(yīng)度相同,則會得到相同的獲勝概率。因此,還需要再生成一個[0,1]區(qū)間的隨機(jī)數(shù),若這個隨機(jī)數(shù)高于0.5,第一個隊伍獲勝;否則,第二個隊伍獲勝。
當(dāng)球隊TEAMi獲勝時,則TEAMi中隊員按如式(8)[2]更新:
其中:TEAMi表示第i個隊伍中隊員;rand表示[0,1]內(nèi)均勻分布的隨機(jī)數(shù);FranchisePlayerj表示第j個隊伍中的最佳球員。
當(dāng)球隊TEAMi獲勝時,該隊伍中隊員按如式(9)[2]更新:
在現(xiàn)實(shí)的球賽中,每一個球隊都想挑選實(shí)力強(qiáng)勁的球員,以此來增強(qiáng)球隊的實(shí)力,從而提高球隊在聯(lián)賽中的地位。但是MVPA 采用隨機(jī)的方式初始化球員,并且球隊選拔球員具有較強(qiáng)的隨機(jī)性和盲目性,因此,本文考慮加入訓(xùn)練階段。訓(xùn)練階段的加入就是通過多種訓(xùn)練方式來增強(qiáng)球員的能力。在訓(xùn)練階段中,本文加入了鄰域搜索算法和混沌序列與反向?qū)W習(xí)算法。鄰域搜索算法主要是讓想將實(shí)力較弱的球員培養(yǎng)出實(shí)力強(qiáng)勁的球員,通過局部搜索的方式,讓球員能快速靠近較優(yōu)解;混沌序列和反向?qū)W習(xí)算法主要是淘汰實(shí)力弱的球員,篩選出實(shí)力強(qiáng)勁的球員。同時,可以提高球員的訓(xùn)練速度和效率,從而有助于提高算法的收斂速率,通過球隊的整體平均水平和優(yōu)秀球員的平均水平?jīng)Q定是選擇鄰域搜索算法還是混沌序列和反向?qū)W習(xí)算法或保持不變。
在現(xiàn)實(shí)的聯(lián)賽中,比賽初期的球隊之間的實(shí)力差距較大,球員水平也參差不齊,在球隊比賽的過程中,即使是對方球隊中的最佳球員,也不一定有很多值得學(xué)習(xí)的地方,但隨著比賽的不斷推進(jìn),實(shí)力弱的球隊以及球員可能會被不斷地淘汰或者是提高,到比賽后期球隊和球員的實(shí)力都會越來越強(qiáng),對于球員來說,贏的球隊中的最佳球員一定有很多值得球員學(xué)習(xí)的地方,也能通過學(xué)習(xí)提高自身的能力和水平。因此,在比賽初期,球員更多地需要自我探索,而在比賽后期,雙方球隊和球員的實(shí)力都很強(qiáng),球員都可以從對方最佳球員的身上學(xué)習(xí)到很多技巧和方法。基于此,本文考慮在隊伍競爭階段球隊輸了比賽后的更新公式中加入自適應(yīng)球員進(jìn)化因子,在迭代前期,自適應(yīng)球員進(jìn)化因子較大,增強(qiáng)算法的全局搜索能力;在迭代后期,自適應(yīng)球員進(jìn)化因子較小,增強(qiáng)算法的局部尋優(yōu)能力。
在MVPA 中,球員在初始化后被隨機(jī)分配至各個球隊。而在實(shí)際的過程中,球員必須達(dá)到一定的水平,滿足球隊的要求才能進(jìn)入球隊。因此,球員要通過訓(xùn)練不斷提高自身能力。借鑒籃球聯(lián)賽中球員加入隊伍之前的海選過程,為提高球員的質(zhì)量和球隊的整體水平,在MVPA 的基礎(chǔ)上,引入訓(xùn)練階段來提高算法的尋優(yōu)精度和收斂速度。
訓(xùn)練階段加入在競爭階段之前,這樣球員提高自身能力除了通過個體競爭和隊伍競爭之外,還有球員為了通過進(jìn)入球隊而進(jìn)行的努力和訓(xùn)練。在訓(xùn)練階段,球員為了進(jìn)入理想的球隊,會不斷訓(xùn)練來提高自己的能力。在訓(xùn)練過程中,球員可能會出現(xiàn)以下三種情況:
1)當(dāng)球員水平高于優(yōu)秀球員的平均水平時,球員覺得自身能力很強(qiáng),且自己的訓(xùn)練方法很有效,則會一直按照自己的方法進(jìn)行訓(xùn)練。
2)當(dāng)球員水平高于所有球員的平均水平但低于優(yōu)秀球員的平均水平時,球員覺得自身能力還需要加強(qiáng),且自己的訓(xùn)練方法有一定的效果,則會微調(diào)整訓(xùn)練方法以獲得更好的效果。
3)當(dāng)球員水平不高于所有球員的整體平均水平時,球員覺得自身能力不行,且訓(xùn)練方法沒有效果,則會很大程度地調(diào)整自己的訓(xùn)練方法,以獲得意想不到的良好效果。
設(shè)定fi表示當(dāng)前球員的適應(yīng)度值,fmin表示當(dāng)前所有球員的最小適應(yīng)度值,favg表示當(dāng)前所有球員的平均適應(yīng)度值,將適應(yīng)度值優(yōu)于favg的適應(yīng)度值求平均得到favg'。
當(dāng)fi≤favg',此時球員水平高于優(yōu)秀球員的平均水平,球員的能力比較強(qiáng),可能不會做出改變,因此,這里考慮球員保持不變,如式(10)所示:
當(dāng)favg'<fi<favg,球員對自己的訓(xùn)練方法進(jìn)行局部調(diào)整,局部搜索策略是以每個當(dāng)前解Playeri為中心,在其周圍通過式(11)產(chǎn)生一個較優(yōu)的解:
其中:r1、r2為(0,1)內(nèi)隨機(jī)數(shù);φ為微調(diào)因子;Playerimin 和分別為第i個球員的下界和上界。
當(dāng)fi≥favg時,球員可能會在很大程度上調(diào)整自己的訓(xùn)練方法,本文采取混沌序列和反向?qū)W習(xí)的方法來更新球員,先用Cat混沌序列產(chǎn)生一個解,然后再使用式(12)產(chǎn)生相對應(yīng)的反向解。
混沌現(xiàn)象[5]是在非線性動力系統(tǒng)中表現(xiàn)的確定性、類隨機(jī)的過程,這種過程既非周期又不收斂,混沌理論看似混亂但其內(nèi)在結(jié)構(gòu)十分精致,具有隨機(jī)性、規(guī)律性和遍歷性等特點(diǎn),已經(jīng)逐漸作為智能優(yōu)化算法的優(yōu)化機(jī)制得到廣泛應(yīng)用?;诓煌成涞幕煦缧蛄械陌l(fā)生器會產(chǎn)生具有不同概率密度分布的混沌序列,這種分布特性的差異會影響算法的效率。Cat映射具有良好的遍歷均勻分布特性,當(dāng)最優(yōu)解均勻分布于自變量期間或靠近自變量區(qū)間的中間位置時,有助于提升搜索效率。其動力學(xué)方程如下:
反向?qū)W習(xí)策略(Opposition-Based Learning,OBL)是由Tizhoosh[6]在2005年首次提出的一種新技術(shù)。文獻(xiàn)[7]證明了反向?qū)W習(xí)算法的學(xué)習(xí)速度快,而且優(yōu)化能力更強(qiáng),文獻(xiàn)[8]表明通過反向?qū)W習(xí)來進(jìn)行種群的初始化,更有助于提高算法的收斂速率。其基本思想為設(shè)X=(x1,x2,…,xD)表示D維空間中的一個可行解,其對應(yīng)的反向解X'=(x'1,x'2,…,x'D)可定義為:
其中:aj、bj分別為xj的下、上邊界。由于反向解有50%以上的可能性比原解更優(yōu),因此,若將反向解和原解進(jìn)行合并,并選擇其中較優(yōu)的解,則獲取最優(yōu)解的概率將大大提高。
為了獲得更好的效果,MVPA 需要平衡好全局搜索和局部搜索能力:在算法初期,進(jìn)化因子μ較大,讓球員有更多的自我提升機(jī)會,從而擴(kuò)大球員的探索區(qū)域;在算法后期,進(jìn)化因子μ較小,讓球員向優(yōu)秀球員學(xué)習(xí),使得球員能夠達(dá)到最佳狀態(tài);同時,在算法初期,球員應(yīng)該有較強(qiáng)的自我學(xué)習(xí)能力,不斷去探索。隨著算法的迭代,球員不能增強(qiáng)向優(yōu)秀球員的學(xué)習(xí)能力,對應(yīng)的局部開發(fā)能力逐漸增強(qiáng)。
根據(jù)以上準(zhǔn)則,本文對式(8)進(jìn)行了調(diào)整,添加了自適應(yīng)的球員進(jìn)化因子,如式(15)~(16)所示:
式中:球員進(jìn)化因子μ∈[0,1],MAXITER為最大迭代次數(shù),ITER為當(dāng)前迭代次數(shù)。由式(16)可知,在算法迭代初期,μ≈1,此時式(15)中,球員的提升主要來源于對自身的探索開發(fā),具有較強(qiáng)的全局搜索能力;隨著算法的不斷迭代,μ不斷減小,此時球員應(yīng)向最佳球員學(xué)習(xí),吸收最佳球員的優(yōu)點(diǎn)增強(qiáng)自己,不斷提升,此時,算法的局部開發(fā)能力增強(qiáng),從而提高算法的收斂速度和尋優(yōu)精度。
綜上所述,ACMTM-MVPA的基本流程如下:
步驟1 初始化階段,在搜索空間內(nèi),隨機(jī)生成PlayersSize個球員,并計算出所有球員的適應(yīng)度值,以及所有球員的平均適應(yīng)度值和高于平均值的球員的平均值。
步驟2 訓(xùn)練階段,按照式(10)~(12)生成一個球員數(shù)量為PlayersSize的群體。然后這些球員被隨機(jī)分配組成隊伍數(shù)量為TeamsSize的球隊。通過評估這些球員的能力,選出MVP(聯(lián)盟最有價值球員)和每個球隊FranchisePlayer(每個隊伍中的最佳球員)。
步驟3 個體競爭階段,在該階段每個球隊都要進(jìn)行個體競爭并按照式(5)更新選定球隊的每個球員對應(yīng)的解。
步驟4 隊伍競爭階段,按照式(6)標(biāo)準(zhǔn)化球隊的適應(yīng)度。
步驟5 按照式(7)計算隊伍的獲勝概率。
步驟6 根據(jù)獲勝機(jī)制按照式(15)或式(9)更新球隊中隊員的技能。
步驟7 檢查是否滿足算法停止準(zhǔn)則,若滿足,則輸出當(dāng)前最優(yōu)解并結(jié)束算法;否則轉(zhuǎn)至步驟2。
為驗(yàn)證新算法的性能,選取了15 個測試函數(shù)作為實(shí)驗(yàn)對象,這些函數(shù)的函數(shù)名、表達(dá)式、維數(shù)、搜索范圍和理論最優(yōu)值如表1 所示。為了檢驗(yàn)新算法的合理性和有效性,將提出的ACMTM-MVPA 與MVPA、粒子群優(yōu)化(Particle Swarm Optimization,PSO)算法和遺傳算法(Genetic Algorithm,GA)進(jìn)行比較實(shí)驗(yàn)。
本文的實(shí)驗(yàn)環(huán)境為:計算機(jī)CPU 為i5-3210M,內(nèi)存為4 GB,操作系統(tǒng)Windows 7,編程軟件Matlab 2016b。ACMTMMVPA 的參數(shù)設(shè)置為:球員數(shù)量PlayersSize=100,隊伍數(shù)量TeamsSize=20,最大迭代次數(shù)MAXITER=300,φ=0.001,最大適應(yīng)度評價次數(shù)為3× 104。MVPA 的參數(shù)設(shè)置為:球員數(shù)量PlayersSize=100,隊伍數(shù)量TeamsSize=20,最大迭代次數(shù)MAXITER=300,最大適應(yīng)度評價次數(shù)為3× 104。PSO 算法的參數(shù)設(shè)置為:群體規(guī)模N=30,最大迭代次數(shù)T=300,權(quán)重的上下界為wmax=0.9,wmin=0.4,學(xué)習(xí)因子c1=c2=2,最大適應(yīng)度評價次數(shù)為3× 104。GA 的參數(shù)設(shè)置為:種群規(guī)模PopSize=100,最大迭代次數(shù)MaxIteration=300,交叉概率Pc=0.6,變異概率Pm=0.01,最大適應(yīng)度評價次數(shù)為3× 104。
表1 測試函數(shù)Tab.1 Test functions
本節(jié)評估在相同的最大適應(yīng)度評價次數(shù)下,算法的尋優(yōu)精度以及平均運(yùn)行時間。對于每個測試函數(shù),ACMTMMVPA、MVPA、PSO 和GA 均獨(dú)立運(yùn)行30 次,結(jié)果如表2 所示,其中:Best 表示最優(yōu)值,Mean 表示均值,Worst 表示最差值,Sd表示標(biāo)準(zhǔn)差,Meantime表示平均運(yùn)行時間(單位:s)。
由表2 可知,對于f2(x)、f3(x)、f4(x)、f5(x)、f7(x)、f9(x)、f10(x)、f13(x),本文算法均達(dá)到了最優(yōu)解,其他函數(shù)的優(yōu)化結(jié)果也都要優(yōu)于MVPA、PSO 算法和GA 算法,同時通過不同測試函數(shù)在測試結(jié)果的標(biāo)準(zhǔn)差可知,ACMTM-MVPA具有較好的魯棒性。
在算法運(yùn)行時間方面,ACMTM-MVPA在競爭階段之前添加了訓(xùn)練階段,使得算法在前期可以搜索到更多的可行解,同時增加了算法的運(yùn)行時間;自適應(yīng)球員進(jìn)化因子的添加,一方面能夠讓算法避免過早陷入局部最優(yōu)解,另一方面,也會抑制算法的收斂速度,并增加了算法的運(yùn)行時間。雖然訓(xùn)練階段和自適應(yīng)球員進(jìn)化因子的添加增加了算法的運(yùn)行時間,但極大地提高了算法的優(yōu)化精度,而且運(yùn)行時間的增加在可接受的范圍內(nèi)。
為了更直觀地顯示ACMTM-MVPA 的優(yōu)化精度和收斂速度,圖1~6 展示了函數(shù)f2(x)、f4(x)、f6(x)、f9(x)、f10(x)、f14(x)的收斂曲線(部分函數(shù)縱坐標(biāo)的函數(shù)值取以10 為底的對數(shù))。從圖中可以看出,與MVPA、PSO 算法和GA 算法相比,ACMTM-MVPA 不僅優(yōu)化精度高而且收斂速度快。對于ACMTM-MVPA 來說,6個測試函數(shù)都在50次迭代次數(shù)以內(nèi)就收斂到一個較優(yōu)解,由圖1、圖2、圖5可知,f2(x)、f4(x)、f10(x)均收斂到相應(yīng)的理論最優(yōu)值??梢缘贸?,ACMTM-MVPA對復(fù)雜函數(shù)的優(yōu)化具有十分顯著的效果。
圖1 f2(x)進(jìn)化曲線Fig.1 Evolution curve of f2(x)
圖2 f4(x)進(jìn)化曲線Fig.2 Evolution curve of f4(x)
為了測試ACMTM-MVPA 的收斂速度,設(shè)定各個函數(shù)的優(yōu)化精度為10E-15,函數(shù)的維數(shù)為500,設(shè)定適應(yīng)度函數(shù)最大評價次數(shù)為3× 104,獨(dú)立運(yùn)行20 次,比較搜索到給定精度需要的最小評價次數(shù)Mini_FEs、平均評價次數(shù)Mean_FEs以及達(dá)到優(yōu)化精度的成功率SR[9],測試結(jié)果如表3 所示。成功率指的是尋優(yōu)達(dá)到給定精度的次數(shù)與總次數(shù)的比值,反映了算法的穩(wěn)健性;函數(shù)平均評價次數(shù)反映算法的收斂速度和計算代價。
圖3 f6(x)進(jìn)化曲線Fig.3 Evolution curve of f6(x)
圖4 f9(x)進(jìn)化曲線Fig.4 Evolution curve of f9(x)
圖5 f10(x)進(jìn)化曲線Fig.5 Evolution curve of f10(x)
圖6 f14(x)進(jìn)化曲線Fig.6 Evolution curve of f14(x)
由表3 可知,ACMTM-MVPA 搜索到給定精度所需的評價次數(shù)的最小值、平均值在大多數(shù)函數(shù)測試中都是最小的,在同樣的精度條件下,評價次數(shù)越少,說明算法的搜索速度越快。盡管ACMTM-MVPA 在處理函數(shù)f11時的搜索速度跟其他三個算法一樣,但是在其他14個函數(shù)上都優(yōu)于MVPA、PSO 算法和GA算法。此外,成功率為0表明,對于20次獨(dú)立運(yùn)行,在規(guī)定的迭代次數(shù)下,算法不能達(dá)到給定的優(yōu)化精度;成功率為1 表明,對于所有20 次獨(dú)立運(yùn)行,在規(guī)定的迭代次數(shù)下,算法都能達(dá)到給定的優(yōu)化精度。表3 結(jié)果表明,本文算法相較于其他算法具有更好的收斂速度和穩(wěn)健性。
表2 實(shí)驗(yàn)結(jié)果對比(500維)Tab.2 Comparison of experimental results(500 dimensions)
續(xù)表
表3 算法評價次數(shù)比較Tab.3 Comparison of algorithmic evaluation times
隨著經(jīng)濟(jì)社會的發(fā)展,中國步入城鎮(zhèn)化快速發(fā)展的階段,城鎮(zhèn)化率已由1978年的17.9%增加到2018年的59.58%。在全球氣候變化與快速城鎮(zhèn)化背景下,中國城市洪澇災(zāi)害日益嚴(yán)重。城市洪澇災(zāi)害已成為制約當(dāng)?shù)厣鐣?jīng)濟(jì)發(fā)展的突出問題[10-11]。暴雨強(qiáng)度公式是確定城市防洪除澇或者排水工程設(shè)計標(biāo)準(zhǔn)的重要依據(jù),其選擇的合理性直接影響工程的規(guī)模和效益,也直接影響著工程投資建設(shè)進(jìn)度[12]。
根據(jù)我國現(xiàn)行的排水規(guī)范,一個重現(xiàn)期的暴雨強(qiáng)度公式[12]形式為:
式中:h為暴雨強(qiáng)度(mm/s);t為降雨歷時(min);A、B、n為常數(shù)。這是常用的一種洪水災(zāi)害危險性分析模型,已經(jīng)被廣泛用于給水排水設(shè)計等洪水災(zāi)害管理中,由公式可知,該式為超定非線性方程,因此公式的參數(shù)優(yōu)化問題實(shí)際上是一個非線性優(yōu)化問題。然而,傳統(tǒng)的優(yōu)化方法不僅計算量大、通用性差,且所求結(jié)果也往往不太理想,本文提出將ACMTM-MVPA應(yīng)用于暴雨強(qiáng)度公式參數(shù)優(yōu)化中,以期獲得良好的效果。
根據(jù)文獻(xiàn)[13]附表中不同重現(xiàn)期暴雨強(qiáng)度與降雨歷時的數(shù)據(jù)。用ACMTM-MVPA 來優(yōu)化式(18)中的參數(shù)A、B、n使下式優(yōu)化準(zhǔn)則函數(shù)極小化[13]:
其中:參數(shù)A、B、n的變化范圍分別是[0,30],[0,100],[0,2],算法的迭代次數(shù)T=1 000。為了方便比較,同時給出了文獻(xiàn)[14]中提供的使用傳統(tǒng)回歸法(簡稱傳統(tǒng)法)、優(yōu)選回歸法(簡稱優(yōu)選法)以及文獻(xiàn)[15]中自適應(yīng)光學(xué)優(yōu)化算法所得的擬合結(jié)果,表4 給出了不同方法對各重現(xiàn)期暴雨強(qiáng)度公式擬合效果的比較。由表4 可知,在相同的數(shù)據(jù)和標(biāo)準(zhǔn)情況下,傳統(tǒng)法和優(yōu)選法的優(yōu)化結(jié)果明顯弱于ACMTM-MVPA 和自適應(yīng)光學(xué)優(yōu)化算法,雖然自適應(yīng)光學(xué)優(yōu)化算法和ACMTM-MVPA 的優(yōu)化結(jié)果相近,但由文獻(xiàn)[15]可知,自適應(yīng)光學(xué)優(yōu)化算法的迭代次數(shù)為5 000,本文中ACMTM-MVPA 的迭代次數(shù)只有1 000次,由此可知,ACMTM-MVPA 具有較快的優(yōu)化速率和較高的擬合精度。同時,ACMTM-MVPA 具有參數(shù)設(shè)置簡單、搜索精度高以及不易陷入局部最優(yōu)解的特點(diǎn),可嘗試廣泛應(yīng)用于不同的復(fù)雜優(yōu)化模型。
表4 不同方法對各重現(xiàn)期暴雨強(qiáng)度公式擬合效果的比較Tab.5 Fitting effect comparison of storm intensity formula for each reproducing period by different methods
本文針對MVPA 在求解復(fù)雜優(yōu)化問題時尋優(yōu)精度低、收斂速度慢的缺陷,提出一種考慮多種訓(xùn)練方式的自適應(yīng)最有價值球員算法。在競爭階段之前添加了訓(xùn)練階段,來提高球員的能力和球隊的整體實(shí)力,從而提高最優(yōu)解的質(zhì)量;在隊伍競爭階段,引入自適應(yīng)球員進(jìn)化因子,均衡了算法全局開發(fā)和局部搜索能力,從而有效地提高算法的尋優(yōu)精度和收斂速度。選取了15 個測試函數(shù)進(jìn)行數(shù)值實(shí)驗(yàn),結(jié)果表明,與MVPA、PSO 算法和GA 相比,本文提出的ACMTM-MVPA 在求解復(fù)雜優(yōu)化問題時不僅收斂速度快,而且優(yōu)化精度高。同時,將算法應(yīng)用于暴雨強(qiáng)度公式參數(shù)優(yōu)化中,并與傳統(tǒng)回歸法、優(yōu)選回歸法和自適應(yīng)光學(xué)優(yōu)化算法進(jìn)行比較,結(jié)果表明,ACMTMMVPA 對暴雨強(qiáng)度公式參數(shù)優(yōu)化中取得了最好的擬合效果,說明該算法的應(yīng)用是成功的,可以考慮推廣至其他復(fù)雜優(yōu)化問題的應(yīng)用。