亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于雙通道深度密集特征融合的遙感影像分類

        2021-01-09 06:49:46張艷月張寶華趙云飛呂曉琪李建軍
        激光技術(shù) 2021年1期
        關(guān)鍵詞:密集卷積分類

        張艷月,張寶華*,趙云飛,呂曉琪,谷 宇,李建軍

        (1.內(nèi)蒙古科技大學(xué) 信息工程學(xué)院,包頭 014010;2.內(nèi)蒙古科技大學(xué) 內(nèi)蒙古自治區(qū)模式識別與智能圖像處理重點實驗室,包頭 014010;3.內(nèi)蒙古工業(yè)大學(xué) 信息工程學(xué)院,呼和浩特 010051)

        引 言

        遙感影像分類[1-2]是遙感領(lǐng)域不可或缺的一部分,被廣泛應(yīng)用在土地資源管理、城市設(shè)計規(guī)劃、氣象觀測、環(huán)境及自然災(zāi)害的變化監(jiān)測等領(lǐng)域。為了反映地面復(fù)雜的空間結(jié)構(gòu),需要充分利用遙感圖像中的豐富地理信息,但目前從遙感圖像中精確提取有效信息并適度表達,還面臨諸多挑戰(zhàn)[3]。

        圖像分類任務(wù)中如何提取圖片特征至關(guān)重要,而且對于實驗結(jié)果的影響不容忽略。中低層次上的方法提取圖像語義特征,如視覺詞袋模型(bag of visual words,BOVW)[4],在此基礎(chǔ)上出現(xiàn)眾多基于視覺詞袋的模型,如改進的同心圓多尺度結(jié)構(gòu)視覺詞袋(concentric circle-structured multi-scale BOVW,CCM-BOVW)[5]模型,該模型利用特征組合描述視覺詞的空間信息,但特征表達能力較弱,影響分類精度;共線性核以一種空間金字塔形式(spatial pyramid co-occurrence kernel,SPCK)[6],通過捕獲單詞的絕對和相對空間排列表征圖像的光度和幾何特征,但采用的是底層局部特征導(dǎo)致其分類結(jié)果不佳。大多數(shù)經(jīng)典方法是基于人工或淺層學(xué)習(xí)的算法,而且提取的中低級語義特征在描述能力上受到限制,難以進一步提高分類準(zhǔn)確性。

        近些年,深度學(xué)習(xí)方法作為計算機視覺識別領(lǐng)域的主要方法已成功應(yīng)用于目標(biāo)識別,取得巨大成功,如空間卷積的顯著性方法[7]檢測物體、捷徑卷積神經(jīng)網(wǎng)絡(luò)[8]識別人臉、改進馬爾可夫模型[9]分割合成孔徑雷達(synthetic aperture radar,SAR)圖像,以及深度學(xué)習(xí)的方式用于遙感圖像分類[10]等。但是,訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)處理圖像分類任務(wù)時,大規(guī)模標(biāo)簽數(shù)據(jù)是前提。由于圖像本身的信息較復(fù)雜,導(dǎo)致目前單一標(biāo)簽的圖像數(shù)據(jù)較少,而人工標(biāo)注又耗時間和精力,因此成為圖像分類精度的一個影響因素。在此基礎(chǔ)上,卷積神經(jīng)網(wǎng)絡(luò)及其一系列改進[11-12]用于解決上述問題,將多尺度圖像[13]送到輸入端,產(chǎn)生圖像的豐富特征信息,然后用多種編碼方式對特征編碼,最后輸入分類器分類。利用聯(lián)合顯著性算法與卷積神經(jīng)網(wǎng)絡(luò)結(jié)合的方法[14]對遙感圖像采樣,對于圖像場景差異小的類別識別效率低。將微調(diào)和卷積神經(jīng)網(wǎng)絡(luò)模型結(jié)合提取圖像特征[15]的方法有效解決了遙感圖像場景分類的相同類內(nèi)差異和不同類間相似性的問題,但同時局部信息的表達被減弱。LI等人[16]提出一種多尺度費舍爾編碼方法來構(gòu)建卷積深度特征的中層特征表示,通過主成分分析方法融合了從卷積層中提取的中層特征和全連通層的特征,但該方法著重于中層特征的表達,沒有利用更高層次的特征。

        為充分利用圖像中包含的豐富場景信息,本文中提出一種用雙通道深度密集網(wǎng)絡(luò)提取特征并融合的分類方法。首先,改變深層密集卷積神經(jīng)網(wǎng)絡(luò)(dense convolutional network, DenseNet)的DenseNet-40網(wǎng)絡(luò)結(jié)構(gòu),使其適應(yīng)原遙感圖像尺度大小,其次通過改進的DenseNet-40表征遙感圖像的全局信息,原DenseNet-40表征遙感圖像的局部信息,然后利用BOVW模型對深層局部特征進行重組編碼,最后,利用局部特征和全局特征的互補性,將密集網(wǎng)絡(luò)的各層特征加權(quán)融合,使融合后特征帶有更深層次語義信息,利于改善分類準(zhǔn)確率。

        1 雙通道深度密集網(wǎng)絡(luò)特征融合算法

        1.1 密集網(wǎng)絡(luò)

        HUANG等人[17]聯(lián)合提出的一種深層密集卷積神經(jīng)網(wǎng)絡(luò)DenseNet,其網(wǎng)絡(luò)核心機制與殘差網(wǎng)絡(luò)(residual network,ResNet)相同,但DenseNet把網(wǎng)絡(luò)中相鄰兩卷積層密集連接起來,即通過各卷積層特征在每個通道上的密集連接實現(xiàn)特征高效復(fù)用。上述特點使DenseNet既能夠減少訓(xùn)練的參量,又有效改善了網(wǎng)絡(luò)訓(xùn)練費時費力的問題。

        DenseNet密集連接方式的前提是特征圖尺寸相同。因此網(wǎng)絡(luò)中采用密集塊(dense block,DB)加過渡層(transition layer,TL)重復(fù)使用的結(jié)構(gòu)。密集塊每個層的特征層尺寸保持一致,內(nèi)部的瓶頸層(bottleneck layer,BL)使計算量大大減少,分別有批次歸一化(batch normalization,BN)、修正線性單元(rectified li-near unit,ReLU)和卷積層三部分,如圖1所示。而過渡層在相鄰兩個密集塊之間起連接作用,并經(jīng)池化降低特征圖尺寸。此結(jié)構(gòu)有效解決了梯度消失帶來的影響。此外,DenseNet具有抑制過擬合的正則化效應(yīng)。

        Fig.1 Dense block structure

        設(shè)某卷積神經(jīng)網(wǎng)絡(luò)共有l(wèi)層,傳統(tǒng)CNN的第l層輸入為其前一層的輸出,計算公式為:

        Xl=Hl(Xl-1)

        (1)

        式中,Xl是第l層的輸出,Hl()為第l個卷積中的復(fù)雜線性變換操作。不同的是,DenseNet中該層的輸入為0~(l-1)層的輸出特征圖,計算公式為:

        Xl=Hl([X0,X1,…,Xl-1]),(l∈N+)

        (2)

        每個密集塊經(jīng)前面的卷積后得到特征圖的數(shù)目一致,表示為k,k為一個超參量。一般情況下k取較小時可得到較好的結(jié)果。若取輸入特征圖個數(shù)為k0,則輸入特征圖的數(shù)量會隨復(fù)合卷積的層數(shù)呈線性增加的狀態(tài)。輸入特征圖的數(shù)量m計算公式為:

        m=k0+(l-1)×k

        (3)

        1.2 局部特征提取

        本文中選用通道一網(wǎng)絡(luò),即DenseNet-40網(wǎng)絡(luò)提取圖像的局部特征,用BOVW對末尾卷積層特征編碼,得到低維詞頻分布直方圖,從而降低特征維度,表達出圖像的局部特征。在卷積中,特征圖是由卷積層和卷積核進行卷積之后的結(jié)果,因此抽取卷積后的眾多特征圖上相同位置的元素,并將這些元素排列,可得到輸入圖像不同的局部抽象特征的表達,如圖2所示。假設(shè)第l層卷積層的輸出特征圖為dl×nl×nl,nl×nl表示單個特征圖大小,dl表示特征圖數(shù)目,fl,k為經(jīng)卷積層l得到的第k(1≤k≤dl)個特征圖,該圖的某個元素(i行j列)為fl,k(i,j)(1≤i≤nl,1≤j≤nl),則該卷積層的全部特征圖在此位置的元素重組后,可獲取一個新的特征向量,計算公式為:

        fl(i,j)=

        (fPReLU(fl,1(i,j),fl,2(i,j),…,fl,dl(i,j)))T

        (4)

        Fig.2 Feature reorganization

        式中,fPReLu表示激活函數(shù),fl(i,j)表示dl維列向量。

        本文中所用框架中有大量的訓(xùn)練參量,這意味著訓(xùn)練時間長,并且有過度訓(xùn)練的傾向。為了使訓(xùn)練更快并防止過度擬合,選擇參量修正線性單元(parame-tric rectified linear unit,PReLU)作為激活函數(shù)[18],它在ReLU 的基礎(chǔ)上引入了極少數(shù)的參量,公式表示為:

        (5)

        式中,xi是第i個通道上非線性激活的輸入,i是可學(xué)習(xí)的參量,ai用于確定負部分的斜率。更新i時,PReLU采用動量法,公式表示為:

        (6)

        式中,μ表示動量,lr表示學(xué)習(xí)率。因為i可能趨于0,因此i在更新狀態(tài)下,考慮棄用權(quán)重衰減。ai=0.25用作初始值。盡管ReLU是一種有用的非線性函數(shù),但它阻礙了反向傳播,而PReLU使模型更快地收斂。

        視覺詞典可以實現(xiàn)將所獲取的視覺詞匯從高維降至低維,依據(jù)生成的視覺詞典對視覺單詞進行編碼,編碼后即表示出了圖像中包含的信息。具體編碼過程如下:計算某一任取視覺詞匯與視覺詞典中所有視覺單詞的距離,并從結(jié)果中找到一個最小值,記錄產(chǎn)生該距離最小值的視覺單詞,代替當(dāng)前的詞匯,記錄各視覺單詞在其總數(shù)中所占比例,即生成其詞頻分布直方圖。

        1.3 全局特征提取

        算法設(shè)計的擴展DenseNet-40網(wǎng)絡(luò)實現(xiàn)了對遙感圖像全局信息的表征。由于一些含區(qū)分性的信息會存在于網(wǎng)絡(luò)的某些層中,擴展DenseNet-40的全連接層(fully connected layers,F(xiàn)C)可以將這些局部信息整合,整合后的輸出可用一個N維特征向量表示,即由N個1×1的特征圖組成,公式表示為:

        Y=fPReLU(WX+b)

        (7)

        假設(shè)第l層卷積層的輸出特征圖為dl×nl×nl,nl×nl表示單個特征圖大小,dl表示特征圖數(shù)目,Y∈RN×1×1為輸出特征向量,R表示實數(shù)域,N表示經(jīng)全連接層整合后的特征圖個數(shù),X∈Rdl×nl×nl為輸入特征圖,W∈R(dl×nl×nl)×N為權(quán)重,b∈RdFC為偏置項,dFC表示全連接層的特征圖個數(shù)。

        1.4 基于雙通道深度密集特征融合算法

        整體算法結(jié)構(gòu)如圖3所示。網(wǎng)絡(luò)設(shè)計為以DenseNet為中心的雙通道網(wǎng)絡(luò),分別將兩種不同尺度的圖像作為輸入,捕獲更全面的圖像特征。預(yù)處理是通過將圖像樣本進行直方圖均衡化,尺度變換和數(shù)據(jù)集的劃分等操作,以節(jié)省訓(xùn)練時間同時去除圖像的冗余信息。經(jīng)過圖像預(yù)處理操作后,得到兩組圖像集,分別是大小為32pixel×32pixel尺寸的圖像集和大小為256pixel×256pixel尺寸的圖像集,最后將圖像集隨機分為8∶2的訓(xùn)練集和測試集,待雙通道網(wǎng)絡(luò)訓(xùn)練完成后,將網(wǎng)絡(luò)最后提取的局部和全局特征進行線性加權(quán)融合,最后經(jīng)softmax分類器分類輸出結(jié)果。

        Fig.3 Algorithm structure

        具體步驟如下:(1)圖像樣本經(jīng)預(yù)處理操作后獲得尺寸分別為32pixel×32pixel和256pixel×256pixel的圖像集,并隨機將其劃分為8∶2,分別作為訓(xùn)練集和數(shù)據(jù)集;(2)將劃分后的圖像訓(xùn)練集輸入通道1的DenseNet-40網(wǎng)絡(luò)進行訓(xùn)練,各個DB模塊均采用k=24,卷積層的數(shù)量為12,由于提取的局部和全局特征的維度不同,在經(jīng)過DenseNet-40獲取卷積層特征后,對這些特征重組并通過詞袋模型編碼,得到局部信息的分布直方圖;同時輸入通道2的擴展DenseNet-40網(wǎng)絡(luò)進行訓(xùn)練,提取全局特征;(3)將上一步中的兩部分特征矩陣以線性加權(quán)方式進行融合,得到融合特征矩陣;(4)融合特征矩陣經(jīng)softmax分類器,得出驗證結(jié)果,進行模型評估;(5)模型評估完成后用先前劃分的測試集進行測試,得到最終分類結(jié)果。

        2 融合模型實驗與結(jié)果分析

        2.1 數(shù)據(jù)集介紹

        選取第1個公開數(shù)據(jù)集是UC Merced Land-Use,該數(shù)據(jù)集每一類分別有100張角度不同的遙感圖片,共21類,圖片總數(shù)量為2100張,每張大小為256pixel×256pixel,空間分辨率為0.3m/pixel,部分類別圖像樣本如圖4所示。樣本均隨機選取情況下,將該數(shù)據(jù)集中每類的80%當(dāng)作訓(xùn)練集,其余20%當(dāng)作測試集。

        Fig.4 UC Merced Land-Use dataset image sample display

        選取第2個公開數(shù)據(jù)集是NWPU-RESISC45,該數(shù)據(jù)集有沙漠、海港、島嶼等共45類場景,每類場景有700張遙感圖片,每張圖片大小為256pixel×256pixel,圖片總數(shù)量為31500張,該數(shù)據(jù)集是由一些人從已有的常用數(shù)據(jù)集中挑選、組合而成的新數(shù)據(jù)集,大多數(shù)圖像的空間分辨率在0.2m/pixel~30m/pixel,部分類別圖像樣本如圖5所示。該數(shù)據(jù)集上同樣隨機選取測試集和訓(xùn)練集為8∶2的比例進行實驗。

        Fig.5 NWPU dataset image sample display

        2.2 實驗參量設(shè)置

        本文中的實驗均是基于深度學(xué)習(xí)框架軟件TENSORFLOW1.9的基礎(chǔ)上完成,所用服務(wù)器硬件配置為DGX-1服務(wù)器,內(nèi)含8塊NVLink V100 GPU,每塊32GB顯存,共256GB,本地固態(tài)硬盤為7TB的固態(tài)驅(qū)動器(solid state disk,SSD),當(dāng)采用深度學(xué)習(xí)方法或?qū)τ嬎阈阅芤筝^高時,一般應(yīng)用該設(shè)備;實驗操作系統(tǒng)為Linux4.15.0-47-generic x86_64。

        由于實驗中所用數(shù)據(jù)集輸入圖片大小均為256pixel×256pixel,圖片尺寸相對較大,因此在提取全局特征時需對密集網(wǎng)絡(luò)進行擴展,網(wǎng)絡(luò)詳細參量設(shè)置信息見表1。算法學(xué)習(xí)率為0.001,批量大小為20。將圖片輸入網(wǎng)絡(luò)后,經(jīng)第1次卷積(采用same方式),使輸出與輸入大小一致,保留了圖像的邊界信息;第1個池化方式采用最大池化,目的是減小偏移誤差,解決了原始遙感圖像部分紋理信息丟失的問題。

        2.3 實驗結(jié)果與分析

        實驗結(jié)果采用評價指標(biāo):分類準(zhǔn)確率A、誤分類率E和混淆矩陣。計算公式如下所示:

        A=T/M

        (8)

        式中,T表示測試集中被正確分類的圖片數(shù);M表示測試集圖像總數(shù)。

        Table 1 Extended DenseNet-40 structure

        誤分類率公式如下所示:

        E=1-A

        (9)

        本文中方法在UC Merced Land-Use dataset上分類產(chǎn)生的混淆矩陣如圖6所示。由圖中可看出,場景中分類目標(biāo)不單一,背景對象多導(dǎo)致分類精度較低;并且有些圖像場景之間具有相似性,往往讓網(wǎng)絡(luò)認為是同一場景,如森林和中等密集住宅、中等密集住宅和密集住宅等;而對于場景單一、目標(biāo)突出、特征明顯的場景,分類精度較高,如茂密樹叢、海港、跑道等。本文中的算法從整體來看分類效果較為理想,但很少數(shù)類別的分類結(jié)果未達到理想值,可能是場景之間的相似性,才導(dǎo)致誤分率相對較高。

        采用支持向量機(support vector machine,SVM)加文檔主題生成模型(latent dirichlet allocation,LDA)的SVM-LDA[19]方法、包含空間信息的費舍爾核(Fisher kernel-spatial,F(xiàn)K-S)[20]方法、多尺度深度卷積神經(jīng)網(wǎng)絡(luò)(multi-scale deep convolutional neural network,MS-DCNN)[13]方法及主成分分析(principal components analysis,PCA)加CNN的PCA-CNN[14]方法與本文中的算法對比,在UC Merced Land-Use Data Set上的各個類別的分類精度如圖7所示。SVM-LDA[19]算法通過使用顯著性檢測,從圖像數(shù)據(jù)集中的顯著區(qū)域提取一

        Fig.7 Scenes classification accuracy of three comparison methods on UC Merced Land-Use

        組代表性圖像塊,用無監(jiān)督的特征學(xué)習(xí)方法利用這些未標(biāo)記的數(shù)據(jù)塊,組成一個強大而高效的特征提取器。其中,最大池化的步長為1,稀疏值0.4;PCA-CNN[14]方法的閾值β=0.3,α=0.8,并且為每個圖像隨機選擇100張大小為64×64×3的圖像塊。由圖可知,算法SVM-LDA[19]的每一類分類結(jié)果均比其余兩種算法低,而PCA-CNN[14]算法的整體分類結(jié)果較為平均,但其分類準(zhǔn)確率低于本文中所提出的方法,證實了本算法的優(yōu)勢。

        為了分析不同尺度的遙感圖像輸入對分類結(jié)果的影響,取原圖像(256pixel×256pixel)和壓縮后(32pixel×32pixel)的圖像尺寸作為輸入圖像,分類結(jié)果見表2。由表2可知,前兩組分類精度相對較低,因為輸入單一尺度的圖像時,僅能提取到部分的圖像特征,從而特征利用率不高,導(dǎo)致分類結(jié)果較低。前兩組實驗對比來看,輸入圖像尺度為32pixel×32pixel時,圖像信息被壓縮,提取特征失真,導(dǎo)致分類結(jié)果偏低。第3組實驗同時將兩種尺度的圖像輸入,提取更加豐富的圖像特征,分類效果較好。

        Table 2 Impact of two different scale input images on classification accuracy

        為了評價不同算法的分類效果,對兩種數(shù)據(jù)集應(yīng)用本文中方法與現(xiàn)有文獻中其它方法的分類準(zhǔn)確率見表3,誤分類率見表4。由表可知,深度卷積神經(jīng)網(wǎng)絡(luò)在圖像分類任務(wù)中有著不可替代的作用。傳統(tǒng)方法中,提取的圖像特征大多數(shù)屬于中低層次的圖像特征,而深度學(xué)習(xí)方法還能提取高層次的圖像語義特征,高、中、低層次圖像特征綜合分析,比中低層圖像特征更具有可分析性,因此采用深度學(xué)習(xí)的方法是當(dāng)前的趨勢,因此本文中采用雙通道密集網(wǎng)絡(luò)來提取圖像特征,把圖像信息各層次特征提取出來并高效復(fù)用,達到全面分析的效果,從而實現(xiàn)更優(yōu)的分類結(jié)果。

        Table 3 Classification accuracy of five methods for datasets experiments

        Table 4 Error rate of five methods for datasets experiments

        3 結(jié) 論

        由于在圖像識別ImageNet數(shù)據(jù)集上運用DenseNet有很好的分類效果,因此使用DenseNet網(wǎng)絡(luò)設(shè)計雙通道特征融合網(wǎng)絡(luò),利用網(wǎng)絡(luò)中各層特征較強的表示能力,提取更多圖片的特征,并且該網(wǎng)絡(luò)特點是能保證高效的特征復(fù)用,因此提高了各層的特征利用率。為了增加保留圖片的有用信息的同時去除冗余信息的能力,算法最初設(shè)計數(shù)據(jù)增強等預(yù)處理操作。從實驗結(jié)果可知,該融合模型在兩個數(shù)據(jù)集上表現(xiàn)出了良好的分類性能。后續(xù)研究中,可嘗試引入多層特征融合的方法來提高目標(biāo)的識別分類。

        猜你喜歡
        密集卷積分類
        耕地保護政策密集出臺
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
        密集恐懼癥
        英語文摘(2021年2期)2021-07-22 07:56:52
        分類算一算
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        分類討論求坐標(biāo)
        數(shù)據(jù)分析中的分類討論
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        教你一招:數(shù)的分類
        歐盟等一大波家電新標(biāo)準(zhǔn)密集來襲
        粗了大了 整进去好爽视频 | 亚洲精品黄网在线观看| 亚洲av乱码国产精品色| 国产三级精品三级在线专区2| 国产又大又黑又粗免费视频| 亚洲av无码第一区二区三区| 日本高清一区二区不卡视频| 热综合一本伊人久久精品| 偷拍一区二区视频播放器| 小宝极品内射国产在线| 国产女人精品视频国产灰线| 亚洲高清av一区二区| 国产99一区二区三区四区| 日夜啪啪一区二区三区| 国产精品无码片在线观看| 久久五月精品中文字幕| 中国一级特黄真人片久久| 美女视频黄的全免费视频网站| 久久精品—区二区三区无码伊人色| 久久精品日韩免费视频| 亚洲欧洲免费无码| 樱花草在线播放免费中文| 伊人婷婷色香五月综合缴激情| 国产一区二区白浆在线观看| 无码国产精品一区二区av| 色狠狠一区二区三区香蕉| 国产精品久久这里只有精品| 青青草免费手机直播视频| 波多野42部无码喷潮在线| 久青草国产视频| 二区三区视频在线观看| 国产一区二区视频免费在| 国产真实夫妇视频| 精品少妇一区一区三区| 中文字幕人妻一区二区二区| 国产激情无码一区二区| 国产一区视频在线免费观看| 中文字幕中乱码一区无线精品| 国产精品无码制服丝袜| 国产精品国产成人国产三级| 久久精品视频按摩|