亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于多分類器融合的衛(wèi)星圖像艦船目標(biāo)識(shí)別*

        2019-10-09 05:22:30王莉莉
        通信技術(shù) 2019年9期
        關(guān)鍵詞:艦艇特征融合

        張 曉,王莉莉

        (中國(guó)電子科技集團(tuán)公司第三十研究所,四川 成都 610054)

        0 引 言

        隨著衛(wèi)星遙感技術(shù)的發(fā)展,基于衛(wèi)星遙感圖像的艦艇目標(biāo)識(shí)別成為可能。艦艇目標(biāo)的識(shí)別是世界各國(guó)的傳統(tǒng)任務(wù),在國(guó)土安全、艦船緊急救援、非法移民等領(lǐng)域有著廣泛的應(yīng)用。與傳統(tǒng)的圖像識(shí)別類似,艦艇目標(biāo)的識(shí)別也主要分為遙感圖像特征提取和分類器構(gòu)建兩部分。

        在圖像識(shí)別領(lǐng)域中,圖像特征表達(dá)和分類器的性能能夠直接影響到分類結(jié)果的準(zhǔn)確率。遙感圖像特征提取方法包括顏色特征、紋理特征和邊緣特征等。顏色直方圖特征[1]能夠反應(yīng)圖像顏色的組成分布,即各種顏色出現(xiàn)的概率,但是由于顏色直方圖特征是全局顏色統(tǒng)計(jì)的結(jié)果,因此丟失了像素點(diǎn)的位置特征。LBP(Local Binary Patterns,LBP)方法[2-3]常用于紋理特征提取,融合LBP特征與方向梯度直方圖(Histogram of Oriented Gradient,HOG)特征構(gòu)建分類器,能夠有效提升分類器的檢測(cè)效果[4]。Canny邊緣檢測(cè)算法[5]基于一個(gè)多階邊緣算子,不但給出了邊緣檢測(cè)的方法,也提出了邊緣檢測(cè)的計(jì)算理論。Sobel算子[6]利用梯度信息對(duì)圖像進(jìn)行邊緣檢測(cè),通過(guò)計(jì)算局部區(qū)域內(nèi)每個(gè)像素的梯度和不同方向從明到暗的變化率,判斷該區(qū)域?yàn)檫吘壍母怕?,完成?duì)圖像的邊緣檢測(cè)。

        現(xiàn)有的分類算法包括神經(jīng)網(wǎng)絡(luò)、K最近鄰(KNN,K-NearestNeighbor)、支持向量機(jī)(Support Vector Machine,SVM)、AdaBoost(Adaptive Boosting,AdaBoost)等,都被廣泛應(yīng)用到圖像識(shí)別中,并得到很好的識(shí)別效果。BP(Back Propagation)神經(jīng)網(wǎng)絡(luò)[7-8]是一種誤差反向傳播算法(Error Back Propagation Algorithm,BP算法),BP算法具有思想直觀、易于理解、數(shù)學(xué)意義明確、步驟分明等優(yōu)點(diǎn),因此BP神經(jīng)網(wǎng)絡(luò)能夠得到廣泛的應(yīng)用。SVM[9-10]根據(jù)結(jié)構(gòu)風(fēng)險(xiǎn)最小化準(zhǔn)則和分類間隔最大化準(zhǔn)則尋找最優(yōu)超平面,提高分類器的泛化能力,能夠有效地解決非線性、維度高、易陷入局部極小值等問(wèn)題。Freund等對(duì)Boosting迭代算法[11]進(jìn)行改進(jìn),提出了AdaBoost算法[12-14],能夠輸出連續(xù)的實(shí)數(shù)值,具有更好的收斂性,在圖像識(shí)別領(lǐng)域得到了廣泛的應(yīng)用。

        在艦艇目標(biāo)識(shí)別中由于缺乏足夠多的訓(xùn)練樣本,導(dǎo)致單一的特征提取方法對(duì)圖像的表達(dá)能力較弱,單個(gè)分類器的識(shí)別準(zhǔn)確率較低。為了提升艦艇目標(biāo)識(shí)別準(zhǔn)確率,本文通過(guò)使用一種迭代式的方法來(lái)應(yīng)對(duì)分類模型缺乏足夠的訓(xùn)練樣本的情況,采用特征融合方法對(duì)圖像進(jìn)行表示,增強(qiáng)圖像的特征表達(dá)能力,并采用多分類器融合方法構(gòu)建艦艇目標(biāo)識(shí)別模型,提升分類器的分類性能。

        1 基本流程

        從Google的衛(wèi)星地圖上看,在地圖縮放至20級(jí)以前,大多數(shù)的艦艇都很小,肉眼無(wú)法識(shí)別。同時(shí)由于拍攝日期以及天氣因素導(dǎo)致Google地圖在清晰度、亮度分辨率以及對(duì)比度等方面具有很大的差異。這些差異大大的增加了識(shí)別的難度,因此需要結(jié)合遙感圖像的特點(diǎn)對(duì)圖像進(jìn)行預(yù)處理和特征提取,然后構(gòu)建多種分類器并進(jìn)行融合,實(shí)現(xiàn)艦艇目標(biāo)識(shí)別,基本流程如圖1所示。

        圖1 艦艇目標(biāo)識(shí)別基本流程

        2 艦艇目標(biāo)識(shí)別方法

        本文以Google瓦片地圖作為輸入,提取圖像的顏色特征和輪廓特征,并對(duì)多種特征進(jìn)行融合,完成遙感圖像的特征表達(dá)。然后構(gòu)建SVM分類器、BP神經(jīng)網(wǎng)絡(luò)分類器和AdaBoost分類器,并對(duì)多個(gè)分類器進(jìn)行融合,通過(guò)加權(quán)投票判斷圖像是否包含艦艇目標(biāo)。

        2.1 特征提取

        圖2是一個(gè)典型的艦艇的圖片??梢钥闯雠炌У谋尘盎臼腔疑?,停機(jī)坪都是白色的,停機(jī)坪中間為白色的圓圈且由直線貫穿,這些特征可以將艦艇與其他物體區(qū)別開(kāi)來(lái)。因此本文提取顏色特征,并提取艦艇的輪廓特征(直線和圓的分布特征)來(lái)完成艦艇衛(wèi)星圖像表示。

        2.1.1 顏色特征

        顏色是遙感影像目標(biāo)識(shí)別的重要特征,能夠?qū)⑴炌c建筑、海面、普通船只區(qū)分開(kāi)來(lái)。在RGB(Red Green Blue,RGB)顏色空間中灰色與紅色、藍(lán)色與綠色相容,因此當(dāng)目標(biāo)的顏色是灰色時(shí),與1/3紅色、1/3綠色、1/3藍(lán)色的圖片無(wú)法區(qū)分。這一現(xiàn)象在HSV(Hue Saturation Value,HSV)顏色空間是不存在的,因此本文選擇在HSV顏色空間提取顏色特征。

        圖2 艦艇衛(wèi)星圖像

        在HSV顏色空間中,H(Hue)代表色彩、S(Saturation)代表深淺(當(dāng)S=0時(shí),只有灰色)、V(Value)代表明暗,表示色彩的明亮程度。

        本文首先將圖像按照H軸劃分5個(gè)區(qū)間、S軸劃分5個(gè)區(qū)間、V軸劃分5個(gè)區(qū)間,共劃分為125個(gè)子空間,然后計(jì)算圖像在每個(gè)子空間中的顏色一階矩特征、二階矩和直方圖特征,完成圖像的顏色特征提取。

        2.1.2 輪廓特征

        從圖2可以看出,艦艇的直升機(jī)停機(jī)位的白色圓圈與直線特征比較明顯,本文將白色圓圈和直線作為艦艇的輪廓特征。在實(shí)際的遙感圖像中每張圖片在亮度、對(duì)比度以及分辨率等方面均存在差異。為了實(shí)現(xiàn)特征的檢測(cè)需要對(duì)上百萬(wàn)張遙感圖片進(jìn)行參數(shù)調(diào)整,這不太可能實(shí)現(xiàn)。

        為了解決以上問(wèn)題,本文對(duì)每個(gè)圖像進(jìn)行預(yù)處理。首先將遙感圖像轉(zhuǎn)化到HSV空間,采用濾波方法對(duì)圖像進(jìn)行預(yù)處理,然后采用Canny算子對(duì)濾波后的圖像做邊緣計(jì)算,最后利用霍夫變換檢測(cè)圖像的輪廓特征,圖像預(yù)處理結(jié)果和輪廓特征檢測(cè)結(jié)果如圖3所示。

        圖3 預(yù)處理和輪廓檢測(cè)結(jié)果

        2.2 分類器

        基于艦艇衛(wèi)星圖像的顏色特征和輪廓特征構(gòu)建SVM分類器、BP神經(jīng)網(wǎng)絡(luò)分類器和AdaBoost分類器,然后設(shè)計(jì)融合規(guī)則對(duì)各個(gè)單分類器的結(jié)果進(jìn)行融合。多分類器融合方式包括級(jí)聯(lián)和并聯(lián),為了避免單個(gè)分類器分類錯(cuò)誤造成最終決策錯(cuò)誤,本文選擇并聯(lián)模式對(duì)單分類器進(jìn)行融合,多分類器融合體系結(jié)構(gòu)如圖4所示。

        圖4 多分類器并聯(lián)融合體系結(jié)構(gòu)

        2.2.1 軟間隔SVM分類器

        給定一個(gè)n個(gè)樣本的訓(xùn)練集S={(x1,y1),…,(xn,yn)}∈(X×Y)n,其中xi∈X=Rd表示訓(xùn)練樣本,yi∈Y={1,-1},i=1,2,…,n。如果訓(xùn)練集S是線性不可分的,那么通過(guò)核函數(shù)Φ將樣本映射到高維Hibert空間H中,使得訓(xùn)練集在高維空間H中是線性可分的,然后在高維空間H中根據(jù)最大間隔原則尋找最優(yōu)超平面。

        軟間隔支持向量機(jī)允許訓(xùn)練樣本有錯(cuò)分點(diǎn),并基于最大化間隔和最小化錯(cuò)分率的原則尋找最優(yōu)超平面。引入一個(gè)懲罰系數(shù)C>0和松弛變量ξ≥0,超平面滿足式(1):

        假設(shè)求解軟間隔支持向量機(jī)間隔最大化問(wèn)題得到的最佳超平面是w*x+b*=0,對(duì)應(yīng)的分類決策函數(shù)為

        其中f(x)稱為軟間隔支持向量機(jī),令h=w*x+b*,h的正負(fù)符號(hào)表示樣本的類別,數(shù)值表示屬于某個(gè)類別的置信度。

        2.2.2 BP神經(jīng)網(wǎng)絡(luò)分類器

        BP神經(jīng)網(wǎng)絡(luò)是一種誤差反向傳播、信號(hào)前向傳播的神經(jīng)網(wǎng)絡(luò),由輸入層、隱藏層和輸出層組成。信號(hào)在前向傳播中,從輸入層到隱藏層再到輸出層逐層處理,并將輸出層的記過(guò)與真實(shí)值的誤差進(jìn)行反向傳播,并根據(jù)預(yù)測(cè)誤差調(diào)整神經(jīng)網(wǎng)絡(luò)的權(quán)重和閾值,使神經(jīng)網(wǎng)絡(luò)的輸出值不斷地逼近真實(shí)值。常見(jiàn)的三層BP神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示。

        圖5 BP神經(jīng)網(wǎng)絡(luò)基本結(jié)構(gòu)

        對(duì)于訓(xùn)練集X中的樣本x=(x1,x2,…xd),d表示向量維度,x1,x2,…xd是BP神經(jīng)網(wǎng)絡(luò)的輸入值,輸入層的節(jié)點(diǎn)個(gè)數(shù)一般設(shè)為訓(xùn)練集X的維度,O1,O2,…Om表示輸出值,uik表示輸入層與隱藏層的權(quán)重,wkj表示隱藏層與輸出層之間的權(quán)重。

        本文在訓(xùn)練BP神經(jīng)網(wǎng)絡(luò)分類器時(shí),網(wǎng)絡(luò)的輸出層m=1,Oi∈R,i=1,2,…,n表示樣本xi的輸出值,當(dāng)Oi>0時(shí)表示樣本xi為正類,否則為負(fù)類,|Oi|表示樣本歸屬于正類或負(fù)類的置信度。

        2.2.3 Adaboost分類器

        AdaBoost算法的核心思想是通過(guò)改變數(shù)據(jù)分布來(lái)構(gòu)造多個(gè)弱分類器,并根據(jù)弱分類器對(duì)樣本的分類情況確定樣本的權(quán)重更新,如果弱分類器對(duì)樣本的分類正確,則對(duì)應(yīng)的權(quán)重減少,如果分類錯(cuò)誤,則權(quán)重增加。本文選擇Stump決策樹(shù)作為弱分類器。

        AdaBoost算法流程如下:

        輸入:訓(xùn)練集T={(x1,y1),…,(xn,yn)},其中yi∈{1,-1},樣本權(quán)重w,弱分類器迭代次數(shù)T;

        (2)DO FORt=1,2,…,T:

        Step1:根據(jù)樣本權(quán)重wt訓(xùn)練弱分類器:

        END

        2.2.4 多分類器融合規(guī)則

        多分類器融合方法包括級(jí)聯(lián)方式和并聯(lián)方式,在級(jí)聯(lián)方式中一個(gè)分類器的分類結(jié)果會(huì)影響另外一個(gè)分類器的結(jié)果,為避免單個(gè)分類器識(shí)別錯(cuò)誤造成艦艇目標(biāo)的識(shí)別錯(cuò)誤,本文采用并聯(lián)方式對(duì)多個(gè)單分類器進(jìn)行融合。在并聯(lián)模式中,各個(gè)分類器的訓(xùn)練是相互獨(dú)立的,其核心是尋找一種合適的融合規(guī)則確定最終的分類結(jié)果。本文采用加權(quán)投票法對(duì)各個(gè)單分類器的分類結(jié)果進(jìn)行融合,并判定圖像是否包含艦艇目標(biāo)。

        針對(duì)艦艇衛(wèi)星遙感圖像提取特征后,分別采用SVM、BP神經(jīng)網(wǎng)絡(luò)和AdaBoost算法構(gòu)建3個(gè)單分類器。對(duì)于樣本x,3個(gè)單分類器的輸出結(jié)果分別為fsvm(x)、fbp(x)和fada(x),若輸出值為正則單分類器判定樣本x為正類,否則為負(fù)類。|fsvm(x)|、|fbp(x)|和fada(x)可分別作為各個(gè)單分類器針對(duì)樣本x的權(quán)重,融合后的分類器輸出為:

        如果f(x)>0,則判定樣本x為正類,否則為負(fù)類。

        3 實(shí)驗(yàn)結(jié)果與分析

        3.1 數(shù)據(jù)集

        分類器的訓(xùn)練需要足夠多的數(shù)據(jù)進(jìn)行學(xué)習(xí),由于艦艇訓(xùn)練數(shù)據(jù)少,本文使用圖像擴(kuò)充技術(shù)對(duì)艦艇圖像數(shù)據(jù)進(jìn)行擴(kuò)充。在google地圖上根據(jù)200個(gè)艦艇目標(biāo)圖像,并經(jīng)過(guò)5次平移、3次旋轉(zhuǎn)和3次縮放,最終將圖像數(shù)據(jù)集擴(kuò)充到9 000幅圖像,隨機(jī)選擇其中的6 500幅圖像作為訓(xùn)練集的正類樣本,2 500幅圖像作為測(cè)試集中的正類樣本。

        實(shí)際上,在google地圖中存在一些與艦艇圖像很相似的圖像。本文在google地圖中隨機(jī)選點(diǎn)并挑選了40 000幅與艦艇圖像相似的衛(wèi)星圖像(普通船只、海平面、建筑等)和具有不同地形地貌特點(diǎn)的圖像作為負(fù)類樣本,其中30 000幅圖像作為訓(xùn)練集負(fù)樣本,10 000幅圖像作為測(cè)試集負(fù)樣本。

        本文使用圖像都是來(lái)自google地圖離線下載的瓦片圖像,并根據(jù)拼接原理對(duì)瓦片地圖進(jìn)行拼接,使圖像能夠包含整個(gè)艦艇目標(biāo),拼接后圖像大小為640×640,數(shù)據(jù)集詳細(xì)情況如表1所示。

        表1 數(shù)據(jù)集詳細(xì)信息

        3.2 艦艇目標(biāo)識(shí)別結(jié)果

        3.2.1 評(píng)價(jià)準(zhǔn)則

        由于測(cè)試集中正負(fù)類樣本比例懸殊,采用準(zhǔn)確率評(píng)價(jià)分類性能是不合適的,本文采用精確率Precision、召回率Recall和F-measure來(lái)評(píng)價(jià)分類性能。TP表示實(shí)際為正樣本中被識(shí)別為正樣本的比例,F(xiàn)N表示實(shí)際正樣本中被識(shí)別為負(fù)樣本的比例,F(xiàn)P表示實(shí)際負(fù)樣本中被識(shí)別為正樣本的比例,TN表示實(shí)際負(fù)樣本中被識(shí)別為負(fù)樣本的比例。精確率表示如下:

        召回率表示如下:

        F-measure表示如下:

        3.2.2 仿真實(shí)驗(yàn)結(jié)果與分析

        在上述訓(xùn)練集上分別采用SVM、BP神經(jīng)網(wǎng)絡(luò)和AdaBoost算法訓(xùn)練分類器,并將3種單分類器進(jìn)行融合,在測(cè)試集上的識(shí)別結(jié)果如表2所示。

        表2 多分類器融合與單分類器的識(shí)別結(jié)果

        由表2可知,在3個(gè)單分類器中,SVM的Precision、Recall和F-measure均是最高的,BP神經(jīng)網(wǎng)絡(luò)的Recall高于AdaBoost算法,但是Precsion低于AdaBoost算法,導(dǎo)致BP神經(jīng)網(wǎng)絡(luò)的F-measure稍低于AdaBoost算法。對(duì)3個(gè)單分類器進(jìn)行融合后,Precision可以達(dá)到66.32%,Recall可以達(dá)到82.53%,F(xiàn)-measure可以達(dá)到73.545,均高于其他3種單分類器,說(shuō)明融合后的分類器性能得到了有效提升。

        3.2.3 諾福克地區(qū)掃描結(jié)果

        為了測(cè)試融合分類器對(duì)實(shí)際地區(qū)的識(shí)別效果,本文對(duì)諾??说貐^(qū)進(jìn)行整體掃描,使用的圖像來(lái)自Google地圖離線下載的瓦片圖像,與訓(xùn)練集圖像的處理方式保持一致,根據(jù)拼接原理對(duì)瓦片地圖進(jìn)行了拼接處理,圖像大小為640×640,共得到20萬(wàn)幅圖像。

        經(jīng)過(guò)融合分類器的識(shí)別和人工確認(rèn)后,共計(jì)識(shí)別出24個(gè)目標(biāo),其中有21個(gè)是艦艇目標(biāo),有3個(gè)非艦艇目標(biāo)。由此說(shuō)明融合分類器能夠識(shí)別出諾??说貐^(qū)的大部分艦艇目標(biāo),具有一定的泛化能力。諾??说貐^(qū)部分艦艇目標(biāo)的分布如圖6所示,白色圖標(biāo)代表艦艇目標(biāo)。

        圖6 諾福克地區(qū)部分掃描結(jié)果

        4 結(jié) 語(yǔ)

        本文使用SVM、BP神經(jīng)網(wǎng)絡(luò)和AdaBoost算法構(gòu)建單分類器,并采用加權(quán)投票法將多個(gè)單分類器進(jìn)行融合,采用融合分類器對(duì)衛(wèi)星圖像艦艇目標(biāo)進(jìn)行識(shí)別檢測(cè)。實(shí)驗(yàn)結(jié)果表明融合后的分類器分類性能最好,F(xiàn)-measure可以達(dá)到73.54%。在諾??说貐^(qū)的整體掃描結(jié)果表明艦艇目標(biāo)識(shí)別模型能識(shí)別出大部分艦艇目標(biāo),為國(guó)土安全提供可靠參考。

        猜你喜歡
        艦艇特征融合
        艦艇入列
        海戰(zhàn)中的蒙面殺手——隱形艦艇
        村企黨建聯(lián)建融合共贏
        融合菜
        從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
        《融合》
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        艦艇遠(yuǎn)航中開(kāi)展音樂(lè)健身操訓(xùn)練探討
        日本一道高清在线一区二区| 亚洲欧洲无码av不卡在线| 人妻无码中文人妻有码| caoporon国产超碰公开| 侵犯了美丽丰满人妻中文字幕| 国产精品免费观看调教网| 18成人片黄网站www| 欧美激情中文字幕在线一区二区| 骚货人妻视频中文字幕| 日日噜噜夜夜狠狠视频| 黑人巨茎大战欧美白妇| 国产亚洲午夜精品| 国产激情视频在线观看首页| 中文无码人妻有码人妻中文字幕| 丰满人妻av无码一区二区三区| 亚洲黄色在线看| av在线一区二区三区不卡| 一区二区三区内射美女毛片| 性久久久久久久| 九九久久精品大片| 亚洲不卡免费观看av一区二区| 中文字幕乱码熟妇五十中出| 99久久婷婷国产综合亚洲91| 插入中文字幕在线一区二区三区 | 九九九影院| 少妇激情一区二区三区| 久久精品网站免费观看| 人妻少妇精品视频一区二区三区 | 欧美在线Aⅴ性色| 国产三级黄色免费网站| 午夜福利院电影| 亚洲欧洲久久久精品| 亚洲天堂男人的av天堂| 国产a√无码专区亚洲av| 日本黄页网站免费大全| 亚洲国产精品亚洲高清| 久久精品国产亚洲av超清| 男女性高爱潮免费网站| 欧美日韩一区二区三区视频在线观看 | 国产亚洲情侣一区二区无| 久久久久久久久久91精品日韩午夜福利|