陳 曦,王建東,陳海燕
(南京航空航天大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,江蘇 南京 210016)
大規(guī)模的機(jī)場(chǎng)建設(shè)使機(jī)場(chǎng)噪聲問題日益嚴(yán)重。機(jī)場(chǎng)噪聲的產(chǎn)生因素非常復(fù)雜,涉及航班調(diào)度、機(jī)場(chǎng)建筑布局、飛行程序、發(fā)動(dòng)機(jī)功率、飛行速度以及氣溫、濕度、氣壓等環(huán)境因素。噪聲是不可避免的,但可以在可控的因素上人為地降低機(jī)場(chǎng)噪聲的大小,以減少對(duì)周圍環(huán)境的影響[1]。針對(duì)這個(gè)問題,現(xiàn)有方法是通過在噪聲波及范圍內(nèi)設(shè)置噪聲監(jiān)測(cè)點(diǎn)來及時(shí)捕獲噪聲數(shù)據(jù),為噪聲防治提供決策依據(jù)。 然而,由于監(jiān)測(cè)點(diǎn)設(shè)備的損壞和老化時(shí)有發(fā)生,導(dǎo)致監(jiān)測(cè)點(diǎn)失效或數(shù)據(jù)采集錯(cuò)誤,這時(shí)就無(wú)法得知該區(qū)域噪聲的真實(shí)情況。因此,如何在設(shè)備發(fā)生故障時(shí)準(zhǔn)確預(yù)測(cè)失效監(jiān)測(cè)點(diǎn)區(qū)域的噪聲成為一個(gè)值得深入研究的問題。
機(jī)場(chǎng)的噪聲監(jiān)測(cè)點(diǎn)設(shè)備通常比較昂貴,且維護(hù)成本高[2]。在傳感器布置上,為了防止單一節(jié)點(diǎn)失效而引發(fā)的監(jiān)測(cè)數(shù)據(jù)異常,一般是采用硬件冗余的方式,即在各個(gè)監(jiān)測(cè)節(jié)點(diǎn)上,布置多個(gè)傳感器。這樣勢(shì)必會(huì)造成一系列巨大的硬件浪費(fèi),特別在像機(jī)場(chǎng)噪聲監(jiān)測(cè)這種大規(guī)模監(jiān)測(cè)活動(dòng)中。
通過對(duì)歷史實(shí)測(cè)噪聲數(shù)據(jù)的分析發(fā)現(xiàn):監(jiān)測(cè)點(diǎn)之間存在一定的關(guān)聯(lián)性,如,相鄰兩個(gè)監(jiān)測(cè)點(diǎn)的噪聲數(shù)據(jù)相近、相鄰區(qū)域內(nèi)的噪聲數(shù)據(jù)呈相似的變化趨勢(shì)等。因此,通過選取與失效監(jiān)測(cè)點(diǎn)相關(guān)性最高的幾個(gè)監(jiān)測(cè)點(diǎn),利用這些點(diǎn)的噪聲值學(xué)習(xí)一種基于監(jiān)測(cè)點(diǎn)關(guān)聯(lián)的預(yù)測(cè)回歸模型,就可以對(duì)失效的監(jiān)測(cè)點(diǎn)進(jìn)行噪聲值估計(jì)。目前,關(guān)于基于噪聲監(jiān)測(cè)點(diǎn)的關(guān)聯(lián)預(yù)測(cè)問題的研究在學(xué)術(shù)界還很少見。鑒于BP神經(jīng)網(wǎng)絡(luò)在對(duì)非線性回歸預(yù)測(cè)問題上的良好表現(xiàn),及其在機(jī)場(chǎng)噪聲預(yù)測(cè)上取得的良好效果[3,4],本文提出了一種基于觀察學(xué)習(xí)的機(jī)場(chǎng)噪聲監(jiān)測(cè)點(diǎn)關(guān)聯(lián)預(yù)測(cè)模型,針對(duì)BP神經(jīng)網(wǎng)絡(luò)在小樣本數(shù)據(jù)集上的欠擬合問題,以及受初始網(wǎng)絡(luò)節(jié)點(diǎn)權(quán)重影響較大的問題,建立了BP神經(jīng)網(wǎng)絡(luò)集成,并提出一種基于學(xué)習(xí)成果優(yōu)異度加權(quán)的觀察學(xué)習(xí)算法,提升整個(gè)預(yù)測(cè)模型的泛化能力和預(yù)測(cè)精度。最后用基于機(jī)場(chǎng)噪聲實(shí)測(cè)數(shù)據(jù)的實(shí)驗(yàn)來檢驗(yàn)該模型的有效性。
在神經(jīng)網(wǎng)絡(luò)集成中,數(shù)據(jù)集的大小直接影響了最后的訓(xùn)練效果。對(duì)于復(fù)雜的回歸問題,過小的訓(xùn)練樣本集有可能會(huì)導(dǎo)致神經(jīng)網(wǎng)絡(luò)發(fā)生欠擬合。而在許多情況下,受制于客觀因素,增加訓(xùn)練樣本是困難的,甚至無(wú)法做到。因此,如果大多數(shù)神經(jīng)網(wǎng)絡(luò)發(fā)生欠擬合狀況,那么勢(shì)必整個(gè)集成模型也會(huì)受到拖累,無(wú)法得到較好的回歸效果。
觀察學(xué)習(xí)算法OLA(Observational Learning Algorithm)是1999年由Jang M[5,6]提出的一種應(yīng)用于人工神經(jīng)網(wǎng)絡(luò)的集成學(xué)習(xí)技術(shù)。它的提出正是為了解決上述問題。其學(xué)習(xí)的方式為在訓(xùn)練的過程中,不斷生成虛擬數(shù)據(jù)來擴(kuò)充訓(xùn)練集,同時(shí)集成模型中各個(gè)神經(jīng)網(wǎng)絡(luò)互相學(xué)習(xí)其他神經(jīng)網(wǎng)絡(luò)的成果來提高整個(gè)集成模型的泛化能力。
其思路來源于班杜拉的社會(huì)學(xué)習(xí)理論。OLA認(rèn)為,對(duì)于集成的神經(jīng)網(wǎng)絡(luò),如果一個(gè)學(xué)習(xí)器從訓(xùn)練數(shù)據(jù)集上獲得的直接經(jīng)驗(yàn)無(wú)法訓(xùn)練出較好的結(jié)果,那么可以通過觀察其他學(xué)習(xí)器是如何做的并且學(xué)習(xí)它們來獲得間接經(jīng)驗(yàn)。在起始階段,受制于訓(xùn)練樣本集過小,單個(gè)學(xué)習(xí)器對(duì)任務(wù)的認(rèn)知較匱乏,那它們的集成模型的預(yù)測(cè)精度也會(huì)較低。通過按照訓(xùn)練樣本分布規(guī)律生成虛擬數(shù)據(jù)集,將其擴(kuò)充到訓(xùn)練數(shù)據(jù)集中,可在一定程度上解決訓(xùn)練樣本集過小的問題,避免欠擬合。隨著觀察和訓(xùn)練的過程不斷重復(fù),單個(gè)學(xué)習(xí)器將逐漸對(duì)任務(wù)有充分的學(xué)習(xí),并且各個(gè)學(xué)習(xí)器之間互相學(xué)習(xí)、提高,最后,提升了集成模型的泛化能力,從而在一定程度上解決了集成中弱學(xué)習(xí)器影響模型整體回歸效果的問題[7]。
OLA的模型訓(xùn)練過程如圖1所示,包括兩個(gè)階段:訓(xùn)練階段(T-step階段)和觀察階段(O-step階段)。在T-step階段,在數(shù)據(jù)集上進(jìn)行多個(gè)學(xué)習(xí)器的訓(xùn)練;在O-step階段,觀察其他學(xué)習(xí)器的結(jié)果,產(chǎn)生用于各個(gè)學(xué)習(xí)器的虛擬數(shù)據(jù)集。這兩個(gè)階段交替進(jìn)行,對(duì)集成模型進(jìn)行訓(xùn)練。對(duì)于集成模型中各個(gè)神經(jīng)網(wǎng)絡(luò)i的虛擬數(shù)據(jù)集的輸入,為其初始訓(xùn)練數(shù)據(jù)集加上高斯白噪聲產(chǎn)生,其輸出為利用虛擬數(shù)據(jù)集輸入在-i集成上產(chǎn)生(集成模型中,去除神經(jīng)網(wǎng)絡(luò)i的決策輸出)。
Figure 1 OLA working mechanism圖1 OLA運(yùn)行機(jī)制
在Jang M的工作基礎(chǔ)上,學(xué)者們對(duì)OLA做了進(jìn)一步的研究,Yu Fan等人[8]將OLA擴(kuò)展到異構(gòu)集成模型上,并證明其能較大程度地提高模型的泛化能力;Wong P M等人[9]將OLA應(yīng)用到儲(chǔ)層的多滲透率預(yù)測(cè),取得良好的應(yīng)用效益,并將模型擴(kuò)展到多預(yù)測(cè)輸出問題上;Shin H[10]在OLA中引入聚類思想,將數(shù)據(jù)集劃分給不同網(wǎng)絡(luò)訓(xùn)練并進(jìn)行模塊化的集成,提出了MOLA模型; Lu Zong-lei等人[11]將OLA擴(kuò)展到用于預(yù)測(cè)概率分布。然而,前人的研究側(cè)重OLA的應(yīng)用和模型的集成,對(duì)其中權(quán)值和參數(shù)的設(shè)置未做詳細(xì)研究。本文一方面嘗試將OLA方法用于機(jī)場(chǎng)噪聲監(jiān)測(cè)點(diǎn)的關(guān)聯(lián)預(yù)測(cè),另一方面研究如何設(shè)置權(quán)值和參數(shù)來提高OLA的性能。
關(guān)聯(lián)監(jiān)測(cè)點(diǎn)的選取方式有很多,最直觀的方式是根據(jù)監(jiān)測(cè)點(diǎn)之間距離直接選取,監(jiān)測(cè)點(diǎn)之間的距離越近,它們監(jiān)測(cè)到的噪聲大小應(yīng)該越接近,其關(guān)聯(lián)度越高。這種方法適用于監(jiān)測(cè)點(diǎn)布局比較密集的情況。對(duì)于監(jiān)測(cè)點(diǎn)布局較為稀疏,或者有建筑物干擾的情況,選取距離最近點(diǎn)并不完全適用,目前機(jī)場(chǎng)噪聲監(jiān)測(cè)點(diǎn)的布局正是這種情況。因此,比較可靠的做法是根據(jù)歷史監(jiān)測(cè)數(shù)據(jù)來計(jì)算監(jiān)測(cè)點(diǎn)之間的關(guān)聯(lián)度,進(jìn)而選取到關(guān)聯(lián)度較高的監(jiān)測(cè)點(diǎn)。這里,使用常見的皮爾遜相關(guān)系數(shù)(Correlation coefficient)作為監(jiān)測(cè)點(diǎn)之間關(guān)聯(lián)度的衡量標(biāo)準(zhǔn),其計(jì)算方法如式(1)所示。
(1)
假設(shè)除失效監(jiān)測(cè)點(diǎn)x外的監(jiān)測(cè)點(diǎn)集合為P={p1,p2,…,pr},則關(guān)于x的關(guān)聯(lián)度集合為ρxy={ρx1,ρx2,…,ρxr}。通過設(shè)置關(guān)聯(lián)度閾值ε,當(dāng)ρxy≥ε時(shí),可選入監(jiān)測(cè)點(diǎn)y的關(guān)聯(lián)監(jiān)測(cè)點(diǎn)集合Q={q1,q2,…,qr′|r′≤r}。在此集合上,構(gòu)造訓(xùn)練和測(cè)試模型所需的數(shù)據(jù)集。
使用相關(guān)系數(shù)來衡量監(jiān)測(cè)點(diǎn)之間關(guān)聯(lián)度的優(yōu)勢(shì)在于:不但考慮監(jiān)測(cè)點(diǎn)之間的噪聲值是否相近,同時(shí)還考慮到監(jiān)測(cè)點(diǎn)之間噪聲值的變化趨勢(shì)是否相類似。這樣,即便在監(jiān)測(cè)點(diǎn)布局較為稀疏或建筑物較多的情況下,也能選擇到合適的關(guān)聯(lián)監(jiān)測(cè)點(diǎn)。關(guān)聯(lián)監(jiān)測(cè)點(diǎn)的篩選同時(shí)還起到了降維的作用,剔除了對(duì)關(guān)聯(lián)預(yù)測(cè)貢獻(xiàn)不大的監(jiān)測(cè)點(diǎn)。
BP神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)為三層[12,13]。由于是利用關(guān)聯(lián)監(jiān)測(cè)點(diǎn)的噪聲值來預(yù)測(cè)失效監(jiān)測(cè)點(diǎn)的噪聲值,因此在模型中,輸入層的神經(jīng)元節(jié)點(diǎn)數(shù)等于r′,輸出層的節(jié)點(diǎn)個(gè)數(shù)為1,隱藏層的節(jié)點(diǎn)個(gè)數(shù)為2×r′。構(gòu)造出含有L個(gè)BP神經(jīng)網(wǎng)絡(luò)的集成模型F=[f1,f2,…,fL]。采用Bootstrap在訓(xùn)練集D上產(chǎn)生給各個(gè)神經(jīng)網(wǎng)絡(luò)fi的訓(xùn)練集DF=[D1,D2,…,DL]。
為了更好地發(fā)揮觀察學(xué)習(xí)的優(yōu)勢(shì),以及提升模型在小樣本條件下的泛化能力,本文在OLA的框架下,提出一種基于學(xué)習(xí)成果優(yōu)異度加權(quán)的觀察學(xué)習(xí)算法MSE-OLA(Mean Squared Error OLA)。
算法MSE-OLA
輸入:初始BP神經(jīng)網(wǎng)絡(luò)集成模型F=[f1,f2,…,fL],初始訓(xùn)練數(shù)據(jù)集DF=[D1,D2,…,DL],模型最大訓(xùn)練次數(shù)G。
步驟2For(t=0;t≤G;t++)
為了在本模型上得到更好的訓(xùn)練效果,該算法從三個(gè)方面進(jìn)行權(quán)值和參數(shù)的設(shè)置。
4.2.1 高斯白噪聲的方差
虛擬數(shù)據(jù)集的生成是觀察學(xué)習(xí)的重要步驟,直接影響子學(xué)習(xí)器的重訓(xùn)練效果。OLA的訓(xùn)練結(jié)果對(duì)于高斯白噪聲的方差不太敏感,只要不是極端,都能有較好的訓(xùn)練效果,因此其方差設(shè)置通常是按照經(jīng)驗(yàn)來設(shè)置的[6]。對(duì)于較小的訓(xùn)練集來說,方差會(huì)對(duì)模型的重訓(xùn)練效果產(chǎn)生影響。本文將高斯白噪聲設(shè)置為均值0,方差為1/n,其中n為原始訓(xùn)練數(shù)據(jù)集的大小。這樣,當(dāng)數(shù)據(jù)集較小時(shí),方差較大,能產(chǎn)生具有多樣性的數(shù)據(jù),避免過擬合;當(dāng)數(shù)據(jù)集較大時(shí),方差較小,數(shù)據(jù)的多樣性降低,可以在一定程度上控制擬合偏差。
運(yùn)用于BP神經(jīng)網(wǎng)絡(luò)i的虛擬數(shù)據(jù)集輸入可表示為:
zk~N(0,1/n),k=1,…,n}
(2)
其中,zk為滿足分布為均值0、方差1/n的高斯白噪聲向量,xk屬于神經(jīng)網(wǎng)絡(luò)i的初始訓(xùn)練集Di。
(3)
(4)
(5)
矩陣每一行表示其他神經(jīng)網(wǎng)絡(luò)參與第i個(gè)神經(jīng)網(wǎng)絡(luò)的-i集成的權(quán)值。
這種基于學(xué)習(xí)成果優(yōu)異度加權(quán)方法從社會(huì)學(xué)習(xí)理論的角度可以理解為:學(xué)習(xí)者對(duì)一項(xiàng)任務(wù)的完成能力是有限的,他們?cè)谟^察其他人是如何完成任務(wù)時(shí),總是會(huì)向能力較強(qiáng)的人多學(xué)習(xí)一些,而向能力較弱的人少學(xué)習(xí)一些甚至不學(xué)習(xí),即有側(cè)重地學(xué)習(xí)。
(6)
至此,其運(yùn)用于下一個(gè)訓(xùn)練階段的虛擬數(shù)據(jù)集則為:
(7)
4.2.3 集成模型中各個(gè)網(wǎng)絡(luò)的決策輸出權(quán)值
(8)
其中,fi為模型中的各個(gè)BP神經(jīng)網(wǎng)絡(luò),αi為其在決策輸出時(shí)的權(quán)值。在OLA中,αi一般采用均值的方式,即αi=1/L。
在經(jīng)過OLA訓(xùn)練后,模型中的各個(gè)神經(jīng)網(wǎng)絡(luò)都能夠得到充分的訓(xùn)練,并且提升預(yù)測(cè)精度。不過,在預(yù)測(cè)的能力上參差不齊的現(xiàn)象還是無(wú)法避免。 因此,為了能夠使集成模型具有更好的預(yù)測(cè)效果,本文同樣也使用“基于學(xué)習(xí)成果優(yōu)異度的加權(quán)”,令各個(gè)神經(jīng)網(wǎng)絡(luò)在測(cè)試集上的表現(xiàn)能力作為各自參與模型決策輸出的權(quán)重。因此,定義其計(jì)算方法如式(9)所示:
(9)
其中,σi由式(3)計(jì)算得出。
已有數(shù)據(jù)為國(guó)內(nèi)某國(guó)際機(jī)場(chǎng)2010年至2011年16個(gè)監(jiān)測(cè)點(diǎn)日均噪聲數(shù)據(jù),從全部16個(gè)監(jiān)測(cè)點(diǎn)中選取一個(gè)點(diǎn)作為需要進(jìn)行預(yù)測(cè)的失效監(jiān)測(cè)點(diǎn),其余點(diǎn)作為候選關(guān)聯(lián)監(jiān)測(cè)點(diǎn)。數(shù)據(jù)集包含了兩年監(jiān)測(cè)的730條數(shù)據(jù),每條數(shù)據(jù)為這16個(gè)監(jiān)測(cè)點(diǎn)在同一天的日均噪聲數(shù)據(jù)值,隨機(jī)選取其中的200條作為測(cè)試數(shù)據(jù)集,另外530條作為原始訓(xùn)練數(shù)據(jù)集。
將每天的日均噪聲數(shù)據(jù)值作為監(jiān)測(cè)點(diǎn)的屬性,則每個(gè)監(jiān)測(cè)點(diǎn)有530個(gè)屬性,利用皮爾遜相關(guān)系數(shù)計(jì)算出失效監(jiān)測(cè)點(diǎn)與其他15個(gè)監(jiān)測(cè)點(diǎn)的關(guān)聯(lián)度,計(jì)算結(jié)果如表1所示。
Table 1 Correlation between abnormal node and normal nodes
從表1中可知,關(guān)聯(lián)度大于0.9的點(diǎn)占了一大半,為了得到較好的訓(xùn)練效果,本文只選擇關(guān)聯(lián)度大于0.9的8個(gè)監(jiān)測(cè)點(diǎn)來構(gòu)造BP神經(jīng)網(wǎng)絡(luò)集成模型。
經(jīng)過篩選出來的關(guān)聯(lián)監(jiān)測(cè)點(diǎn)有8個(gè),所以訓(xùn)練數(shù)據(jù)集的輸入屬性維度為8,輸出屬性維度為1。由于輸入維度和數(shù)據(jù)集較小,因此本實(shí)驗(yàn)采用五個(gè)BP神經(jīng)網(wǎng)絡(luò)進(jìn)行集成。
首先,采用Bootstrapping算法在原始數(shù)據(jù)集上生成五組訓(xùn)練集;進(jìn)而,訓(xùn)練得到五個(gè)BP神經(jīng)網(wǎng)絡(luò);根據(jù)各神經(jīng)網(wǎng)絡(luò)在測(cè)試集上的MSE計(jì)算它們?cè)谟^察學(xué)習(xí)階段對(duì)產(chǎn)生虛擬數(shù)據(jù)集輸出的權(quán)值。
接著,把原始數(shù)據(jù)集中的每個(gè)數(shù)據(jù)加上高斯白噪聲生成虛擬輸入數(shù)據(jù),其中高斯白噪聲的均值為0,方差為1/530。表2顯示了對(duì)模型進(jìn)行21次觀察學(xué)習(xí)訓(xùn)練(一次原始訓(xùn)練集訓(xùn)練和20次虛擬數(shù)據(jù)集訓(xùn)練)時(shí),每個(gè)訓(xùn)練階段各個(gè)BP神經(jīng)網(wǎng)絡(luò)以及集成后產(chǎn)生的MSE。
從表2中可以看出,在沒有加入虛擬數(shù)據(jù)集進(jìn)行重訓(xùn)練時(shí),各神經(jīng)網(wǎng)絡(luò)的泛化能力不強(qiáng),集成模型的預(yù)測(cè)精度也不高;當(dāng)循環(huán)重訓(xùn)練開始時(shí),各神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)效果在不斷地發(fā)生波動(dòng),MSE的總體呈現(xiàn)下降的趨勢(shì),集成模型的預(yù)測(cè)精度也在提高,MSE下降得很快;隨著重訓(xùn)練次數(shù)的增多,集成模型預(yù)測(cè)精度趨于穩(wěn)定。
Table 2 Trend of MSE for MSE-OLA
表3顯示了同樣條件下普通取均值加權(quán)的觀察學(xué)習(xí)算法各訓(xùn)練階段的MSE。
從表3中可以看出,取均值加權(quán)的OLA對(duì)集成模型有很大的優(yōu)化,使集成模型的預(yù)測(cè)精度得到提高,但多個(gè)神經(jīng)網(wǎng)絡(luò)的MSE波動(dòng)起伏很大,總的集成效果不如MSE-OLA。
BP神經(jīng)網(wǎng)絡(luò)集成模型在兩種算法的優(yōu)化下,訓(xùn)練過程的MSE變化趨勢(shì)圖如圖2所示。
Figure 2 MSE for two OLA algorithms圖2 兩種OLA的MSE變化趨勢(shì)
次數(shù)BP1BP2BP3BP4BP5AverageOLA00.06300.09800.05520.04690.04690.045410.05740.01290.05220.07100.07010.045320.05740.01340.03470.07100.07010.042130.04730.01390.03470.08850.04360.038740.04730.01560.02890.08850.04360.039050.04730.01560.02890.05760.04500.035060.04730.01560.02890.05760.04500.035070.03080.01560.02890.05760.04500.031980.02930.06480.02890.05760.04500.032990.02930.06480.02890.05760.04500.0329100.02930.06480.02890.05760.04500.0329110.02930.06480.02890.05610.09810.0389120.02930.01930.02890.05610.09050.0373130.02930.01930.02890.05610.09050.0373140.02930.01930.02890.05610.09590.0377150.02580.01930.02890.05240.09590.0365160.02580.01930.02890.05240.05590.0316170.02580.01930.02890.05240.05590.0316180.02580.01930.02830.05240.05590.0310190.02580.01930.02830.04990.05590.0307200.02580.01930.03210.04990.05590.0313
從圖2中可看出,MSE-OLA相比取均值加權(quán)的OLA,重訓(xùn)練的效率得到提升,穩(wěn)定性也增加了;同時(shí),MSE下降的速率也提升了,這說明MSE-OLA相比于取均值加權(quán)的OLA能夠在最少的重訓(xùn)練次數(shù)下較快地達(dá)到較好的訓(xùn)練效果,加速了模型的優(yōu)化。
經(jīng)過上面的步驟得到了基于觀察學(xué)習(xí)的機(jī)場(chǎng)噪聲監(jiān)測(cè)點(diǎn)關(guān)聯(lián)預(yù)測(cè)模型,該模型在測(cè)試數(shù)據(jù)集上的預(yù)測(cè)結(jié)果如圖3和圖4所示。
Figure 3 Comparison between predicted outputs and expected outputs圖3 預(yù)測(cè)輸出與期望輸出對(duì)比結(jié)果
Figure 4 Percentage of prediction error圖4 預(yù)測(cè)誤差百分比
從圖3和圖4可以看出,基于觀察學(xué)習(xí)的噪聲監(jiān)測(cè)點(diǎn)關(guān)聯(lián)預(yù)測(cè)模型,在測(cè)試集上的預(yù)測(cè)誤差百分比控制在[-0.01,0.015],因此該模型在預(yù)測(cè)失效點(diǎn)的日均噪聲值時(shí),預(yù)測(cè)結(jié)果能達(dá)到理想的精度。
本文針對(duì)機(jī)場(chǎng)噪聲監(jiān)測(cè)點(diǎn)失效導(dǎo)致的噪聲采集數(shù)據(jù)錯(cuò)誤問題,在不借助硬件的條件下,嘗試以軟件方式尋求解決方案。發(fā)現(xiàn)并分析了監(jiān)測(cè)點(diǎn)之間的關(guān)聯(lián)性,提出了利用監(jiān)測(cè)點(diǎn)關(guān)聯(lián)的對(duì)失效監(jiān)測(cè)點(diǎn)日均噪聲數(shù)據(jù)的預(yù)測(cè)模型。該模型使用相關(guān)系數(shù)來衡量和篩選關(guān)聯(lián)度高的監(jiān)測(cè)點(diǎn),并利用BP神經(jīng)網(wǎng)絡(luò)集成作為學(xué)習(xí)器。為了解決小樣本數(shù)據(jù)對(duì)模型訓(xùn)練的不充分以及提高模型的預(yù)測(cè)精度,提出一種基于學(xué)習(xí)成果優(yōu)異度加權(quán)的觀察學(xué)習(xí)集成算法對(duì)模型進(jìn)行訓(xùn)練。實(shí)驗(yàn)中,用所提出模型對(duì)國(guó)內(nèi)某機(jī)場(chǎng)的監(jiān)測(cè)點(diǎn)噪聲數(shù)據(jù)進(jìn)行預(yù)測(cè),實(shí)驗(yàn)結(jié)果表明,本文所提出模型具有較高的預(yù)測(cè)精度,且MSE-OLA較普通取均值的OLA能有效提升訓(xùn)練效率和穩(wěn)定性。
本文的預(yù)測(cè)目標(biāo)是失效監(jiān)測(cè)點(diǎn)的日均噪聲值,而對(duì)于時(shí)序性較強(qiáng)的實(shí)時(shí)噪聲值預(yù)測(cè)將會(huì)是下一步研究的方向。另外,對(duì)于監(jiān)測(cè)點(diǎn)間的關(guān)聯(lián)性分析和度量方式,由于前人研究較少,所以有待做進(jìn)一步的深入研究。
[1] Du Ji-tao. Research on airport noise prediction model and its application[D]. Nanjing:Nanjing University of Aeronautics and Astronautics,2011.(in Chinese)
[2] Ding Wen-ting. Research on location model of airport noise monitoring points[D]. Nanjing:Nanjing University of Aeronautics and Astronautics,2011.(in Chinese)
[3] Yang Y, Hinde C, Gillingwater D. Airport noise simulation using neural networks[C]∥Proc of the International Joint Conference on Neural Networks(IJCNN),2008:1917-1923.
[4] Du Ji-tao, Zhang Yu-ping, Xu Tao. Airport noise prediction model based on BP neural network[J]. Computer Engineering and Applications,2013,49(9):236-239.(in Chinese)
[5] Jang M, Cho S. Ensemble learning using observational learning theory[C]∥Proc of the International Joint Conference on Neural Networks(IJCNN),1999:1287-1292.
[6] Jang M, Cho S. Observational learning algorithm for an ensemble of neural networks[J]. Pattern Analysis & Applications, 2002, 5(2):154-167.
[7] Wang Shuo. Class imbalance learning[D]. Birmingham :University of Birmingham, 2009.
[8] Yu Fan, Yang Li-ying, Qin Zheng. Classifiers combination with observational learning[J]. International Journal of Computer Science and Network Security, 2006, 6(3A):53-56.
[9] Wong P M, Jang M, Cho S, et al. Multiple permeability predictions using an observational learning algorithm[J]. Computers & Geosciences, 2000, 26(8):907-913.
[10] Shin H, Lee H, Cho S. Observational learning with modular networks[C]∥Proc of the 2nd International Conference on Intelligent Data Engineering and Automated Learning(IDEAL), 2000:183-192.
[11] Lu Zong-lei, Xu Tao. A new method to predict probability distribution based on heterogeneous ensemble learning[J]. International Journal of Advancements in Computing Technology, 2012, 4(14):17-25.
[12] Hagiwara M. Removal of hidden units and weights for back propagation networks[C]∥Proc of the International Joint Conference on Neural Networks(IJCNN), 1993:351-354.
[13] Li Kai,Huang Hou-kuan.Study of a neural network ensemble algorithm for small data sets[J]. Journal of Computer Research and Development, 2006,43(7):1161-1166.(in Chinese)
附中文參考文獻(xiàn):
[1] 杜繼濤.機(jī)場(chǎng)噪聲預(yù)測(cè)模型及應(yīng)用研究[D].南京:南京航空航天大學(xué),2011.
[2] 丁文婷.機(jī)場(chǎng)噪聲監(jiān)測(cè)點(diǎn)分布模型研究[D].南京:南京航空航天大學(xué),2011.
[4] 杜繼濤,張育平,徐濤.一種BP神經(jīng)網(wǎng)絡(luò)機(jī)場(chǎng)噪聲預(yù)測(cè)模型[J].計(jì)算機(jī)工程與應(yīng)用,2013,49(9):236-239.
[13] 李凱,黃厚寬.小規(guī)模數(shù)據(jù)集的神經(jīng)網(wǎng)絡(luò)集成算法研究[J].計(jì)算機(jī)研究與發(fā)展,2006,43(7):1161-1166.