亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        耦合多源地理數(shù)據(jù)的多分辨率遙感影像場(chǎng)景分類方法研究

        2021-12-12 12:04:48胡昌苗霍連志
        無(wú)線電工程 2021年12期
        關(guān)鍵詞:武漢市分辨率分類

        范 鑫,胡昌苗,霍連志

        (1.中國(guó)科學(xué)院空天信息創(chuàng)新研究院,北京 100094;2.中國(guó)科學(xué)院大學(xué) 電子電氣與通信工程學(xué)院,北京 100049)

        0 引言

        隨著衛(wèi)星傳感器的迅速發(fā)展,獲取大量不同空間分辨率的遙感影像已經(jīng)非常容易,不同分辨率的遙感影像可以廣泛服務(wù)于數(shù)字國(guó)土、智慧城市、環(huán)境監(jiān)測(cè)和城市規(guī)劃等應(yīng)用場(chǎng)景[1]。與低分辨率遙感影像相比,高分辨率遙感影像具有更豐富的細(xì)節(jié)信息,可以清晰地表達(dá)地物的結(jié)構(gòu)和空間分布特征,蘊(yùn)含著明確的場(chǎng)景語(yǔ)義信息[2]。然而,在高分辨率遙感影像中,地物種類復(fù)雜繁多,同一地物的不同空間分布也會(huì)使其場(chǎng)景類別發(fā)生變化,因而難以根據(jù)底層特征獲取高層語(yǔ)義信息,其結(jié)果是出現(xiàn)了語(yǔ)義鴻溝[3]。

        為了跨越語(yǔ)義鴻溝,遙感影像場(chǎng)景分類已經(jīng)成為遙感領(lǐng)域近年來(lái)的研究熱點(diǎn),也是該領(lǐng)域最有挑戰(zhàn)性的課題之一[4]。遙感影像場(chǎng)景分類可以分為基于底層特征、基于中層特征和基于深度學(xué)習(xí)特征的3類方法。早期關(guān)于遙感影像場(chǎng)景分類的研究主要基于底層特征提取影像的顏色、紋理、結(jié)構(gòu)等特征,直接描述場(chǎng)景,并借助傳統(tǒng)分類器對(duì)場(chǎng)景影像進(jìn)行分類[5]?;谥袑犹卣鞯膱?chǎng)景分類代表方法主要有概率潛在語(yǔ)義分析(PLSA)[6]、潛在Dirichlet分配(LDA)[7]和視覺(jué)詞袋模型(BoVW)[8]。

        近年來(lái)深度學(xué)習(xí)在遙感的諸多領(lǐng)域都取得了不少成就[9],基于深度學(xué)習(xí)的遙感影像場(chǎng)景分類研究也越來(lái)越受到相關(guān)學(xué)者的廣泛關(guān)注?;谏疃葘W(xué)習(xí)的遙感影像場(chǎng)景分類方法主要可分為從頭開(kāi)始訓(xùn)練[10]、遷移學(xué)習(xí)參數(shù)微調(diào)[11]和遷移學(xué)習(xí)特征提取[12]3類。Zhu等[13]提出了一種高分辨率遙感影像場(chǎng)景分類的深度局部全局特征融合框架,將深度學(xué)習(xí)特征、局部特征和全局特征進(jìn)行了融合。針對(duì)遙感影像處理中小樣本訓(xùn)練地物識(shí)別與分類。譚琨等[14]進(jìn)行了結(jié)合深度學(xué)習(xí)和半監(jiān)督學(xué)習(xí)在遙感影像分類中的研究進(jìn)展綜述。為了克服缺乏大量有標(biāo)簽遙感影像數(shù)據(jù)集的問(wèn)題,喬婷婷等[15]通過(guò)卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型結(jié)合數(shù)據(jù)增廣和遷移學(xué)習(xí)進(jìn)行遙感影像場(chǎng)景分類,獲得了較大的精度提升。許夙暉等[16]利用多尺度特征與深度網(wǎng)絡(luò)對(duì)遙感影像進(jìn)行場(chǎng)景分類,結(jié)合低頻和高頻子帶對(duì)不同場(chǎng)景類別的識(shí)別優(yōu)勢(shì),取得了較好的分類結(jié)果。

        本研究擬結(jié)合不同分辨率遙感影像和多源地理數(shù)據(jù),探索其在城市級(jí)研究區(qū)域場(chǎng)景理解中的應(yīng)用。首先,通過(guò)超分辨率重建,在提升低分辨率遙感影像分辨率的同時(shí)融入高分辨率遙感影像的豐富細(xì)節(jié)信息;其次,在SIRI-WHU公開(kāi)場(chǎng)景分類數(shù)據(jù)集上驗(yàn)證本文所提出框架的有效性后,進(jìn)一步耦合多源地理數(shù)據(jù)進(jìn)行了武漢市場(chǎng)景分類實(shí)驗(yàn)。

        1 研究區(qū)及數(shù)據(jù)

        1.1 研究區(qū)及數(shù)據(jù)簡(jiǎn)介

        本研究選取武漢市為研究區(qū)。武漢市是湖北省的省會(huì)城市,同時(shí)也是華中地區(qū)的一大中心城市。

        本文所使用的研究數(shù)據(jù)包含遙感影像和多源地理數(shù)據(jù)。其中,遙感影像又分為超分辨率重建數(shù)據(jù)集、規(guī)則影像和不規(guī)則影像場(chǎng)景數(shù)據(jù)集、夜間燈光影像數(shù)據(jù)。規(guī)則影像是指固定大小尺寸(如256 pixel×256 pixel)的影像塊,適合輸入到深度學(xué)習(xí)模型;而不規(guī)則影像是指大小形狀不一的影像塊。多源地理數(shù)據(jù)包含采集的武漢市研究區(qū)內(nèi)的OSM,POI,RTUD。

        1.2 遙感影像數(shù)據(jù)

        1.2.1 超分辨率重建數(shù)據(jù)集

        多分辨率遙感影像重建數(shù)據(jù)集通過(guò)收集同一區(qū)域不同分辨率的Google Earth大幅遙感影像裁剪獲得。該數(shù)據(jù)集包含16 000幅5個(gè)不同分辨率(包含2,4,8,16和32 m)下的遙感影像。重建模型數(shù)據(jù)集如圖1所示。

        圖1 重建模型數(shù)據(jù)集Fig.1 Reconstruction model dataset

        1.2.2 規(guī)則影像場(chǎng)景數(shù)據(jù)集

        本研究使用的規(guī)則遙感影像場(chǎng)景數(shù)據(jù)集包括SIRI-WHU公開(kāi)場(chǎng)景數(shù)據(jù)集和自制的武漢市多分辨率規(guī)則遙感影像場(chǎng)景數(shù)據(jù)集。

        SIRI-WHU場(chǎng)景數(shù)據(jù)集由武漢大學(xué)遙感智能數(shù)據(jù)提取與分析組(RSIDEA)設(shè)計(jì)制作,包含12個(gè)場(chǎng)景類別(草場(chǎng)、池塘、港口、工業(yè)區(qū)、公園、河流、居民區(qū)、立交橋、農(nóng)田、商業(yè)區(qū)、水體和裸地)。其中每類包含200幅場(chǎng)景影像,空間分辨率為2 m,大小為200 pixel×200 pixel。數(shù)據(jù)集中各場(chǎng)景類別的代表性影像如圖2所示。

        圖2 SIRI-WHU場(chǎng)景數(shù)據(jù)集Fig.2 SIRI-WHU scene dataset

        自制武漢市多分辨率規(guī)則遙感影像場(chǎng)景數(shù)據(jù)集通過(guò)對(duì)武漢市Google Earth大幅遙感影像進(jìn)行裁剪與標(biāo)注獲得,包含多種空間分辨率。以2 m分辨率為例,其影像大小為256 pixel×256 pixel。數(shù)據(jù)集包含7個(gè)類別(居民用地、農(nóng)業(yè)用地、綠地、水體、工業(yè)和物流倉(cāng)儲(chǔ)用地、教育科研用地以及其他空地),每類200幅影像。MR-WUHAN規(guī)則影像場(chǎng)景數(shù)據(jù)集如圖3所示。

        圖3 MR-WUHAN規(guī)則影像場(chǎng)景數(shù)據(jù)集Fig.3 MR-WUHAN regular image scene dataset

        1.2.3 不規(guī)則影像場(chǎng)景數(shù)據(jù)集

        不規(guī)則遙感影像場(chǎng)景數(shù)據(jù)集通過(guò)使用OSM路網(wǎng)裁剪武漢市的Google Earth大幅影像,對(duì)獲得的不規(guī)則場(chǎng)景地塊進(jìn)行專家人工標(biāo)注獲得。標(biāo)注后的結(jié)果如圖4所示。

        圖4 武漢市不規(guī)則遙感影像標(biāo)注結(jié)果Fig.4 Wuhan irregular remote sensing scene image annotation results

        該數(shù)據(jù)集也包含多種不同分辨率的版本,數(shù)據(jù)集中同樣包含7個(gè)場(chǎng)景類別。由于地塊不規(guī)則,故數(shù)據(jù)集中影像的像素大小不一,同時(shí)每類影像數(shù)目為100~200幅不等。MR-WUHAN不規(guī)則影像場(chǎng)景數(shù)據(jù)集如圖5所示。

        圖5 MR-WUHAN不規(guī)則影像場(chǎng)景數(shù)據(jù)集Fig.5 MR-WUHAN irregular image scene dataset

        1.2.4 夜間燈光數(shù)據(jù)

        夜間燈光數(shù)據(jù)來(lái)源于珞珈一號(hào)衛(wèi)星夜間燈光影像,該影像能夠較好地表達(dá)城市內(nèi)部結(jié)構(gòu)的細(xì)節(jié),可以反映城市不同職能區(qū)域的發(fā)展情況,是重要的社會(huì)經(jīng)濟(jì)屬性指標(biāo)。

        武漢市夜間燈光數(shù)據(jù)如圖6所示。

        圖6 武漢市夜間燈光數(shù)據(jù)Fig.6 Wuhan nighttime light data

        1.3 多源地理數(shù)據(jù)

        1.3.1 OSM路網(wǎng)及POI興趣點(diǎn)數(shù)據(jù)

        研究區(qū)的路網(wǎng)數(shù)據(jù)是本研究重要的地理數(shù)據(jù)之一,來(lái)源于Open Street Map(OSM),屬性字段包括道路等級(jí)等信息。興趣點(diǎn)數(shù)據(jù)來(lái)自高德地圖,本研究獲取了武漢市范圍內(nèi)的POI數(shù)據(jù),包含名稱、類型和位置等7種屬性,共計(jì)886 415條。OSM和POI數(shù)據(jù)可視化如圖7所示。

        圖7 武漢市OSM及POI數(shù)據(jù)Fig.7 Wuhan OSM and POI data

        1.3.2 實(shí)時(shí)人口時(shí)序RTUD數(shù)據(jù)

        人口時(shí)序數(shù)據(jù)是按時(shí)間順序記錄人群在空間上分布情況的數(shù)據(jù)序列,可以直觀有效地反映空間區(qū)域的相關(guān)性,具有時(shí)間上的動(dòng)態(tài)性和空間上的全覆蓋性。本研究使用來(lái)自騰訊人口時(shí)序數(shù)據(jù)庫(kù)的RTUD數(shù)據(jù)輔助城市場(chǎng)景分類。武漢市人口時(shí)序數(shù)據(jù)如圖8所示。

        (a) 休息日10時(shí)

        2 研究方法

        本研究的結(jié)構(gòu)主要分為3部分。首先,基于多分辨率遙感影像訓(xùn)練超分辨率重建模型,以融合不同分辨率的遙感影像特征。然后,在場(chǎng)景數(shù)據(jù)集上應(yīng)用重建模型進(jìn)行影像重建,再使用CNN進(jìn)行場(chǎng)景分類,以驗(yàn)證所提方法的有效性。最后,基于不規(guī)則遙感影像數(shù)據(jù)融合多源地理數(shù)據(jù)進(jìn)行場(chǎng)景分類,提升所提框架的實(shí)際應(yīng)用價(jià)值。耦合多源地理數(shù)據(jù)的多分辨率遙感影像場(chǎng)景分類方法研究框架如圖9所示。

        圖9 研究方法框架Fig.9 Research method framework

        2.1 基于超分辨率生成對(duì)抗網(wǎng)絡(luò)的影像重建

        在遙感影像數(shù)據(jù)上應(yīng)用超分辨率重建模型主要有兩方面的原因:一方面,當(dāng)某一地區(qū)的高分辨率遙感影像不可獲取時(shí),可以使用低分辨率的遙感影像通過(guò)重建在一定程度上提高影像的分辨率和特征表達(dá)能力;另一方面,重建不僅可以提升影像的分辨率,還可以融入不同分辨率遙感影像的特征。原始影像和重建后的影像示例如圖10所示。

        圖10 原始影像和重建后的影像示例Fig.10 Examples of original image and reconstructed image

        2.1.1 SRGAN模型

        近年來(lái),超分辨率生成對(duì)抗網(wǎng)絡(luò)(SRGAN)在圖像超分辨率領(lǐng)域吸引了不少學(xué)者的關(guān)注,并帶領(lǐng)該領(lǐng)域進(jìn)入了一個(gè)全新的高度。將生成對(duì)抗網(wǎng)絡(luò)(GAN)應(yīng)用于圖像超分辨率(SR),通過(guò)在自然圖像上進(jìn)行4倍下采樣后進(jìn)行重建,獲得了相當(dāng)逼真的重建結(jié)果。為了提高生成器網(wǎng)絡(luò)的性能以獲得更高質(zhì)量的輸出,SRGAN模型提出了一種新的感知損失函數(shù),包括內(nèi)容損失和對(duì)抗損失。通過(guò)VGG網(wǎng)絡(luò)提取,并對(duì)內(nèi)容損失和對(duì)抗損失進(jìn)行加權(quán)求和,即:

        2.1.2 遙感影像重建模型訓(xùn)練

        本研究使用不同分辨率的遙感影像訓(xùn)練多個(gè)SRGAN模型,不僅訓(xùn)練單一的低分辨率到高分辨率的重建模型,同時(shí)考慮加入多種分辨率的遙感影像進(jìn)行訓(xùn)練,可以融入不同分辨率遙感影像金字塔各個(gè)層級(jí)的特征,提升重建后影像的特征表達(dá)能力。具體的模型設(shè)置如表1所示。

        表1 不同分辨率遙感影像SRGAN重建模型

        基于SRGAN模型的不同分辨率遙感影像重建流程如圖11所示。

        圖11 SRGAN重建流程Fig.11 SRGAN reconstruction flow chart

        2.2 基于多CNN模型的規(guī)則影像場(chǎng)景分類

        2.2.1 場(chǎng)景數(shù)據(jù)集重建

        針對(duì)規(guī)則遙感影像場(chǎng)景數(shù)據(jù)集,利用已經(jīng)在不同分辨率遙感影像重建數(shù)據(jù)集上預(yù)訓(xùn)練后的SRGAN模型進(jìn)行遷移測(cè)試。根據(jù)特定的場(chǎng)景數(shù)據(jù)集,選擇適宜的重建模型進(jìn)行影像重建,獲得原始數(shù)據(jù)集對(duì)應(yīng)的重建數(shù)據(jù)集。進(jìn)一步,可以將原始數(shù)據(jù)集與重建數(shù)據(jù)集合并,獲得增廣后的場(chǎng)景數(shù)據(jù)集。場(chǎng)景數(shù)據(jù)集的重建流程如圖12所示。

        圖12 場(chǎng)景數(shù)據(jù)集重建流程Fig.12 Scene dataset reconstruction flow chart

        2.2.2 多CNN模型場(chǎng)景分類

        CNN模型應(yīng)用于遙感影像場(chǎng)景分類的研究主要針對(duì)幾個(gè)流行的場(chǎng)景數(shù)據(jù)集進(jìn)行,并且許多研究工作都采用了微調(diào)的方法。首先,在自然圖像數(shù)據(jù)集,如ImageNet上進(jìn)行模型預(yù)訓(xùn)練;然后,遷移至場(chǎng)景數(shù)據(jù)集,以提升模型的特征提取能力,并大幅縮短訓(xùn)練的時(shí)間和資源開(kāi)銷(xiāo)。本文也采用微調(diào)的方法,使用預(yù)訓(xùn)練的CNN模型進(jìn)行場(chǎng)景分類。另外,不僅使用單一CNN模型進(jìn)行場(chǎng)景分類,而且使用了AlexNet[17],SqueezeNet[18],DenseNet161[19]和VGG19[20]共4個(gè)代表性的CNN模型分別對(duì)原始影像數(shù)據(jù)集、重建影像數(shù)據(jù)集和增廣后的數(shù)據(jù)集進(jìn)行場(chǎng)景分類,從模型和數(shù)據(jù)2個(gè)層面對(duì)所提方法進(jìn)行實(shí)驗(yàn)與分析。整體流程如圖13所示。

        圖13 多CNN場(chǎng)景分類流程Fig.13 Multi-CNN scene classification flow chart

        2.3 耦合多源地理數(shù)據(jù)的不規(guī)則影像場(chǎng)景分類

        針對(duì)不規(guī)則影像,使用了不同分辨率的遙感影像。通過(guò)預(yù)訓(xùn)練的VGG19網(wǎng)絡(luò)進(jìn)行影像特征提取,輸出全連接層的高維特征向量。多分辨率的不規(guī)則遙感影像示例如圖14所示。

        圖14 多分辨率不規(guī)則遙感影像Fig.14 Multi-resolution irregular remote sensing image

        針對(duì)多源地理數(shù)據(jù),以O(shè)SM路網(wǎng)分割的地塊為場(chǎng)景單元,對(duì)原始數(shù)據(jù)進(jìn)行預(yù)處理,提取相應(yīng)特征。針對(duì)POI數(shù)據(jù),進(jìn)行重分類,統(tǒng)計(jì)各場(chǎng)景單元指定類別POI占總POI數(shù)目的比例。針對(duì)RTUD數(shù)據(jù)和夜間燈光數(shù)據(jù),通過(guò)分區(qū)統(tǒng)計(jì)每個(gè)地塊柵格值的平均值,并對(duì)所得特征進(jìn)行最大最小歸一化。

        以武漢市中心城區(qū)為研究區(qū),通過(guò)OSM路網(wǎng)分割遙感影像獲得不規(guī)則場(chǎng)景地塊。使用VGG19網(wǎng)絡(luò)提取全連接層特征后再通過(guò)場(chǎng)景地塊的ID連接其所對(duì)應(yīng)的POI、RTUD和夜間燈光等多源地理數(shù)據(jù)特征。最后將融合后的特征輸入SVM分類器進(jìn)行場(chǎng)景分類,將分類結(jié)果整合即可獲得完整的城市土地利用功能分區(qū)。耦合多源地理數(shù)據(jù)的不規(guī)則影像場(chǎng)景分類方法流程如圖15所示。

        圖15 耦合多源地理數(shù)據(jù)場(chǎng)景分類流程Fig.15 Flow chart of scene classification coupled with multi-source geographic data

        3 實(shí)驗(yàn)結(jié)果

        本節(jié)為研究的實(shí)驗(yàn)部分,主要分為3部分內(nèi)容。第1部分為多分辨率遙感影像重建,根據(jù)不同分辨率的遙感影像訓(xùn)練相應(yīng)的重建模型并進(jìn)行簡(jiǎn)單的重建測(cè)試以驗(yàn)證所訓(xùn)練模型的效果。第2部分實(shí)驗(yàn)首先根據(jù)第1部分獲得的重建模型對(duì)原始場(chǎng)景數(shù)據(jù)進(jìn)行重建,隨后使用多個(gè)CNN模型分別對(duì)原始場(chǎng)景數(shù)據(jù)和重建后的場(chǎng)景數(shù)據(jù)以及融合2種數(shù)據(jù)進(jìn)行增廣后的數(shù)據(jù)集進(jìn)行場(chǎng)景分類,通過(guò)對(duì)比,驗(yàn)證本研究所提框架的有效性。第3部分內(nèi)容以武漢市為研究區(qū),耦合多源地理數(shù)據(jù)通過(guò)SVM分類器進(jìn)行不規(guī)則影像場(chǎng)景分類。

        3.1 多分辨率遙感影像重建

        共訓(xùn)練了6個(gè)不同分辨率的遙感影像重建模型,所有模型的重建置信倍數(shù)均設(shè)置為4。模型訓(xùn)練完成后,使用不同分辨率的遙感影像進(jìn)行重建測(cè)試,部分模型的重建結(jié)果如圖16所示。

        (a) Model-2

        3.2 規(guī)則遙感影像場(chǎng)景分類

        遙感影像場(chǎng)景分類研究一般基于公開(kāi)的數(shù)據(jù)集進(jìn)行,如AID、NWPU等數(shù)據(jù)集。首先,針對(duì)SIRI-WHU場(chǎng)景數(shù)據(jù)集,用SRGAN重建模型進(jìn)行重建;然后,進(jìn)行CNN場(chǎng)景分類,即SRGAN-CNN框架;最后,在自制的規(guī)則MR-WUHAN影像場(chǎng)景數(shù)據(jù)集上應(yīng)用本文所提出的框架。

        3.2.1 SIRI-WHU數(shù)據(jù)集場(chǎng)景分類

        (1) SIRI-WHU數(shù)據(jù)集重建

        針對(duì)SIRI-WHU數(shù)據(jù)集,其影像空間分辨率為2 m,因此本研究選擇重建模型中的Model-4進(jìn)行影像重建。數(shù)據(jù)集中部分類別的代表性影像重建結(jié)果和原始影像對(duì)比如圖17所示。

        (a) 池塘

        (2) CNN場(chǎng)景分類

        針對(duì)SIRI-WHU數(shù)據(jù)集的場(chǎng)景分類,采用50%的場(chǎng)景影像訓(xùn)練,剩余50%的場(chǎng)景影像用于測(cè)試。實(shí)驗(yàn)采用4個(gè)CNN模型分別對(duì)原始影像、重建后的高分辨率影像、融合原始影像和重建影像進(jìn)行數(shù)據(jù)增廣的數(shù)據(jù)集進(jìn)行場(chǎng)景分類測(cè)試。網(wǎng)絡(luò)的主要超參數(shù):學(xué)習(xí)率設(shè)置為10-5,規(guī)范化參數(shù)設(shè)置為5×10-6,小批量數(shù)據(jù)大小設(shè)置為8。分類結(jié)果如表2所示。

        表2 SIRI-WHU數(shù)據(jù)集場(chǎng)景分類結(jié)果

        DenseNet161模型在原始SIRI-WHU數(shù)據(jù)集、增廣后數(shù)據(jù)集上場(chǎng)景分類結(jié)果混淆矩陣分別如圖18和圖19所示。

        圖18和圖19所示的混淆矩陣表明,通過(guò)重建增廣原始數(shù)據(jù)集后,場(chǎng)景分類精度有了較大提升。特別是在SIRI-WHU數(shù)據(jù)集中的商業(yè)區(qū)、居民區(qū)和水體3個(gè)場(chǎng)景類別,DenseNet161模型達(dá)到了100%的識(shí)別準(zhǔn)確度,進(jìn)一步驗(yàn)證了本文所提框架的有效性。

        圖18 DenseNet161原始SIRI-WHU數(shù)據(jù)集場(chǎng)景 分類結(jié)果混淆矩陣Fig.18 Confusion matrix of scene classification result of DenseNet161 in original SIRI-WHU dataset

        圖19 DenseNet161增廣SIRI-WHU數(shù)據(jù)集場(chǎng)景 分類結(jié)果混淆矩陣Fig.19 Confusion matrix of scene classification result of DenseNet161 in augmented SIRI-WHU dataset

        3.2.2 MR-WUHAN數(shù)據(jù)集場(chǎng)景分類

        (1) MR-WUHAN數(shù)據(jù)集重建

        針對(duì)自制的MR-WUHAN規(guī)則影像場(chǎng)景數(shù)據(jù)集,選擇2,8 m分辨率的數(shù)據(jù)進(jìn)行實(shí)驗(yàn)。通過(guò)Model-3對(duì)8 m分辨率影像進(jìn)行重建,獲得重建后的2 m分辨率影像。原始影像和重建影像對(duì)比如圖20所示。

        (2) CNN場(chǎng)景分類

        使用多CNN模型分別對(duì)原始的8 m分辨率影像和2 m分辨率影像、重建獲得的2 m分辨率影像、融合原始2 m分辨率和重建2 m分辨率進(jìn)行數(shù)據(jù)增廣后的數(shù)據(jù)集進(jìn)行場(chǎng)景分類。實(shí)驗(yàn)采用80%數(shù)據(jù)訓(xùn)練,20%數(shù)據(jù)測(cè)試,結(jié)果如表3所示。

        (a) 工業(yè)和物流倉(cāng)儲(chǔ)用地

        表3 規(guī)則MR-WUHAN數(shù)據(jù)集場(chǎng)景分類結(jié)果

        DenseNet161模型在原始MR-WUHAN數(shù)據(jù)集、增廣后數(shù)據(jù)集上場(chǎng)景分類結(jié)果混淆矩陣分別如圖21和圖22所示。

        圖21 DenseNet161在原始MR-WUHAN數(shù)據(jù)集場(chǎng)景 分類結(jié)果混淆矩陣Fig.21 Confusion matrix of scene classification result of DenseNet161 in original MR-WUHAN dataset

        圖22 DenseNet161在增廣MR-WUHAN數(shù)據(jù)集場(chǎng)景 分類結(jié)果混淆矩陣Fig.22 Confusion matrix of scene classification result of DenseNet161 in augmented MR-WUHAN dataset

        如圖21和圖22所示的混淆矩陣表明,自制的MR-WUHAN規(guī)則影像場(chǎng)景數(shù)據(jù)集重建增廣后,場(chǎng)景分類模型對(duì)各場(chǎng)景類的正確識(shí)別能力顯著增強(qiáng)。例如,在原始數(shù)據(jù)集上,場(chǎng)景分類模型對(duì)教育用地的識(shí)別精度只有85%,其余15%被誤分為了居住用地。而增廣后的數(shù)據(jù)集,對(duì)教育用地的分類正確率提高了5%。此外,在增廣數(shù)據(jù)集上場(chǎng)景分類模型對(duì)農(nóng)業(yè)用地的識(shí)別達(dá)到了100%的準(zhǔn)確率,對(duì)綠地和水體的分類準(zhǔn)確率也有了大幅提升。

        3.3 不規(guī)則遙感影像場(chǎng)景分類

        基于道路網(wǎng)絡(luò)分割的遙感影像進(jìn)行場(chǎng)景分類,具有更強(qiáng)的實(shí)用性價(jià)值。道路網(wǎng)絡(luò)所形成的地塊單元是進(jìn)行城市土地利用現(xiàn)狀分析與規(guī)劃的更加自然的邊界,便于與多源地理數(shù)據(jù)相結(jié)合。實(shí)驗(yàn)首先使用預(yù)訓(xùn)練的VGG19網(wǎng)絡(luò)提取不規(guī)則MR-WUHAN數(shù)據(jù)集中多分辨率遙感影像的特征,再耦合多源地理數(shù)據(jù)屬性特征,最后通過(guò)SVM分類器進(jìn)行場(chǎng)景分類。通過(guò)對(duì)比使用影像特征、多源地理數(shù)據(jù)特征、耦合影像特征和多源地理數(shù)據(jù)特征進(jìn)行特征融合的分類結(jié)果,驗(yàn)證本研究所提方法的有效性。

        在不規(guī)則MR-WUHAN數(shù)據(jù)集場(chǎng)景分類中,通過(guò)SVM分類器,2 m影像的精度為75%,8 m影像的精度為52.5%,多源地理數(shù)據(jù)的精度為46.25%,特征融合的精度為81.25%。

        從實(shí)驗(yàn)結(jié)果可以看出,僅使用影像特征和僅使用多源地理數(shù)據(jù)特征的模型精度均低于融合影像特征和多源地理數(shù)據(jù)特征的方法,證明了多源地理數(shù)據(jù)特征可以很好地彌補(bǔ)社會(huì)經(jīng)濟(jì)屬性等影像不能反映但卻對(duì)場(chǎng)景類別影響很大的特征,因此通過(guò)特征融合可以獲得更高的精度。進(jìn)一步,通過(guò)應(yīng)用特征融合的方法在武漢市中心城區(qū)進(jìn)行驗(yàn)證測(cè)試,獲得城市土地利用的地塊分類結(jié)果,如圖23所示。

        圖23 武漢市不規(guī)則影像場(chǎng)景分類結(jié)果Fig.23 The map of Wuhan irregular image scene classification result

        4 結(jié)束語(yǔ)

        不同分辨率的遙感影像對(duì)同一區(qū)域的場(chǎng)景信息特征表達(dá)能力有著顯著的差別。低分辨率的影像側(cè)重于凸顯場(chǎng)景的全局整體特征,而高分辨率的影像則包含更多的局部細(xì)節(jié)信息。通過(guò)融合不同分辨率遙感影像的不同層級(jí)特征有利于提高場(chǎng)景的特征表達(dá)能力。此外,由于僅根據(jù)遙感影像數(shù)據(jù)的場(chǎng)景理解結(jié)果可能不足以投入實(shí)際應(yīng)用,通過(guò)耦合多源地理數(shù)據(jù),可以補(bǔ)充提取的特征,為土地利用解釋提供更多的附加信息。本文進(jìn)行了耦合多源地理數(shù)據(jù)的多分辨率遙感影像場(chǎng)景分類方法探究,主要包括以下內(nèi)容:

        ① 提出了耦合多源地理數(shù)據(jù)的多分辨率遙感影像場(chǎng)景分類框架,并對(duì)框架中的每一部分內(nèi)容進(jìn)行了詳細(xì)介紹。主要包括SRGAN影像重建、CNN場(chǎng)景分類和耦合多源地理數(shù)據(jù)的場(chǎng)景分類3部分。

        ② 為了驗(yàn)證本文提出框架的有效性,以武漢市為研究區(qū),獲取其遙感影像數(shù)據(jù)和多源地理數(shù)據(jù)進(jìn)行實(shí)驗(yàn)分析。首先,基于不同分辨率的遙感影像重建數(shù)據(jù)集訓(xùn)練遙感影像超分辨率重建模型;然后,針對(duì)SIRI-WHU場(chǎng)景數(shù)據(jù)集和自制的多分辨率武漢市場(chǎng)景數(shù)據(jù)集進(jìn)行影像重建和CNN場(chǎng)景分類;最后,在自制的武漢市OSM路網(wǎng)分割的不規(guī)則影像場(chǎng)景數(shù)據(jù)集上進(jìn)行耦合多源地理數(shù)據(jù)的場(chǎng)景分類,獲得城市土地利用功能分區(qū)。

        高分辨率遙感影像的場(chǎng)景分類是一項(xiàng)非常有挑戰(zhàn)性的研究工作,本文進(jìn)行的研究從數(shù)據(jù)和方法層面還存在一些局限性。

        由于深度學(xué)習(xí)需要固定輸入場(chǎng)景影像的大小,因此難以應(yīng)用在不規(guī)則影像上。在提取特征時(shí),只能通過(guò)采樣的方法改變?cè)驾斎雸?chǎng)景影像的大小,不可避免地帶來(lái)一些特征信息的丟失。目前,基于不規(guī)則影像的深度學(xué)習(xí)研究工作還很少,這是一個(gè)很有價(jià)值的研究點(diǎn),后續(xù)可以進(jìn)行相關(guān)的探索研究。

        猜你喜歡
        武漢市分辨率分類
        武漢市勘察設(shè)計(jì)有限公司
        武漢市中小學(xué)優(yōu)秀自制教具評(píng)選活動(dòng)成功舉辦
        分類算一算
        EM算法的參數(shù)分辨率
        武漢市勘察設(shè)計(jì)有限公司
        分類討論求坐標(biāo)
        原生VS最大那些混淆視聽(tīng)的“分辨率”概念
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        基于深度特征學(xué)習(xí)的圖像超分辨率重建
        日韩亚洲欧美久久久www综合| 亚洲国产字幕| 国产蜜臀精品一区二区三区| 日本午夜精品一区二区三区| 亚洲精品无码专区| 亚洲精品久久久久久| 人妻无码人妻有码不卡| 日本女优久久精品观看| 厨房人妻hd中文字幕| 黑人玩弄漂亮少妇高潮大叫| 国产WW久久久久久久久久| 日韩精品有码中文字幕| 国产精品女同一区二区免费站| 免费无码又黄又爽又刺激| 屁屁影院一区二区三区| 91亚洲精品久久久蜜桃| 国产一区二区三区在线视频观看| 亚洲人成77777在线播放网站| 伊人久久成人成综合网222| 超级少妇一区二区三区| 日本一区二区在线免费看| 真实国产老熟女无套中出| 国产喷水在线观看| 日韩精品av在线一区二区| 久久99热国产精品综合| 亚洲国产精品久久久久婷婷老年 | 久久久亚洲成年中文字幕| 公与淑婷厨房猛烈进出| 五十路熟妇高熟无码视频| 亚洲AV永久无码精品一区二国| 国产激情一区二区三区成人| 少妇中文字幕乱码亚洲影视| 亚洲国产成人精品女人久久久| av在线网站手机播放| 国产精品第一二三区久久| 性一交一乱一乱一视频| 蜜桃在线播放免费一区二区三区 | 欧美一级特黄AAAAAA片在线看| 亚洲国产免费一区二区| 亚洲av综合色区无码一区| 久久精品亚洲中文字幕无码网站|