陳 振,趙亞鳳,張志超
基于圖像超分辨率的遙感圖像樹(shù)冠目標(biāo)檢測(cè)
陳 振,趙亞鳳,張志超
(東北林業(yè)大學(xué) 信息與計(jì)算機(jī)工程學(xué)院,黑龍江 哈爾濱 150040)
針對(duì)目前遙感圖像質(zhì)量較差導(dǎo)致對(duì)其中物體檢測(cè)效果低下的問(wèn)題,本文提出一種基于生成式對(duì)抗網(wǎng)絡(luò)(GAN)的圖像超分辨率方法來(lái)提升遙感圖像整體質(zhì)量,并對(duì)現(xiàn)有常用目標(biāo)檢測(cè)算法YOLO進(jìn)行研究。針對(duì)遙感圖像中樹(shù)冠不容易檢測(cè)的特點(diǎn),將超分辨率運(yùn)用于檢測(cè)遙感圖像中的樹(shù)冠,對(duì)特定區(qū)域內(nèi)樹(shù)冠數(shù)量及定位進(jìn)行統(tǒng)計(jì)。實(shí)驗(yàn)結(jié)果表明超分辨率方法對(duì)目標(biāo)檢測(cè)起到積極作用,檢測(cè)精度提升約為8%,有利于對(duì)特定地區(qū)樹(shù)木種植數(shù)量的統(tǒng)計(jì)工作。
生成式對(duì)抗網(wǎng)絡(luò);超分辨率;目標(biāo)檢測(cè);樹(shù)冠;遙感圖像
由于拍攝因素的影響,遙感圖像往往質(zhì)量不佳,需要通過(guò)預(yù)處理后投入研究使用,傳統(tǒng)預(yù)處理包括校正、配準(zhǔn)、去噪等步驟,耗時(shí)耗力且需要較高的專業(yè)知識(shí)。因此,如何高效獲取高質(zhì)量的遙感圖像成為一項(xiàng)研究?jī)?nèi)容。隨著超分辨率生成式對(duì)抗網(wǎng)絡(luò)的問(wèn)世,可以在原有低分辨率遙感圖像基礎(chǔ)上訓(xùn)練出高分辨率遙感圖像。另外,目標(biāo)檢測(cè)技術(shù)是一項(xiàng)重要的研究,如對(duì)遙感圖像中樹(shù)冠進(jìn)行目標(biāo)檢測(cè),有利于土地規(guī)劃、植樹(shù)造林工作的統(tǒng)計(jì)。
利用圖像超分辨率技術(shù)可以獲取圖像中目標(biāo)的深度信息,目標(biāo)檢測(cè)技術(shù)可以識(shí)別圖像中關(guān)鍵目標(biāo)的類別和位置。在本文研究應(yīng)用中,將兩者相結(jié)合,實(shí)現(xiàn)對(duì)樹(shù)冠的精準(zhǔn)檢測(cè),繼而評(píng)估林業(yè)資源、植樹(shù)造林程度,為林業(yè)智能化提供新的思路。
作為目前在圖像生成和圖像復(fù)原領(lǐng)域最為優(yōu)秀的深度學(xué)習(xí)算法,生成對(duì)抗網(wǎng)絡(luò)作為一個(gè)極其高效的框架,能夠生成具有欺詐性的圖像以模擬真實(shí)圖像,將這類算法應(yīng)用在圖像超分辨領(lǐng)域是一個(gè)值得一試的想法,本節(jié)主要對(duì)一種基于感知損失的生成對(duì)抗網(wǎng)絡(luò)(GAN)圖像超分辨率方法進(jìn)行研究,首先介紹生成對(duì)抗網(wǎng)絡(luò)的基本原理,繼而定義感知損失函數(shù),最后研究生成器網(wǎng)絡(luò)和判別器網(wǎng)絡(luò)的詳細(xì)構(gòu)造。
GAN框架中包含兩個(gè)主要神經(jīng)網(wǎng)絡(luò)模塊:生成器網(wǎng)絡(luò)和判別器網(wǎng)絡(luò)。生成器網(wǎng)絡(luò)的基本思想是輸入一個(gè)訓(xùn)練集數(shù)據(jù),訓(xùn)練網(wǎng)絡(luò)來(lái)對(duì)這些樣本的概率分布進(jìn)行推理,最終實(shí)現(xiàn)輸入一個(gè)隨機(jī)的噪聲信號(hào),如均勻分布或高斯分布來(lái)輸出一個(gè)與輸入樣本極其相似的結(jié)果;而判別器網(wǎng)絡(luò)的作用則是區(qū)分自然樣本和生成器網(wǎng)絡(luò)生成的樣本,判斷生成器網(wǎng)絡(luò)生成的樣本圖像是否是真實(shí)圖像,該網(wǎng)絡(luò)最后會(huì)輸出一個(gè)概率以表示樣本的真實(shí)度。在訓(xùn)練過(guò)程中,兩個(gè)網(wǎng)絡(luò)相互促進(jìn)競(jìng)爭(zhēng),同時(shí)參與訓(xùn)練,生成器網(wǎng)絡(luò)的目的是生成足夠真實(shí)的圖像以使判別器網(wǎng)絡(luò)認(rèn)為它是真實(shí)圖像,而判別器網(wǎng)絡(luò)的目標(biāo)是盡量區(qū)分真實(shí)樣本與生成樣本,二者構(gòu)成了一個(gè)納什均衡,最終希望生成圖像達(dá)到以假亂真的目的。GAN網(wǎng)絡(luò)的具體結(jié)構(gòu)如圖1所示:
圖1 GAN網(wǎng)絡(luò)原理圖
該公式旨在同時(shí)訓(xùn)練生成器G來(lái)欺騙判別器D;訓(xùn)練判別器D的作用是判斷輸入的虛假圖像是否是真實(shí)的圖像。并不斷迭代訓(xùn)練,反作用于生成器,使其不斷優(yōu)化生成的虛假圖像,最終使判別器難以辨別。
因此本文在其基礎(chǔ)上結(jié)合上文的分析對(duì)將損失函數(shù)改為如下公式:
(1)生成器網(wǎng)絡(luò)
生成器網(wǎng)絡(luò)G的總體框架基于Resnet網(wǎng)絡(luò),主要采用多個(gè)相同的殘差塊組成,每個(gè)塊的結(jié)構(gòu)具體如圖2所示,每個(gè)卷積層的卷積核大小為3*3,每個(gè)殘差塊輸出的特征圖維度都是64,并且在卷積過(guò)程中通過(guò)填充等操方式來(lái)保證特征圖的尺寸分辨率不變。在網(wǎng)絡(luò)的輸出部分,使用兩個(gè)步長(zhǎng)為0.5的反卷積層來(lái)提升輸出圖像的分辨率。
圖2 生成器網(wǎng)絡(luò)G
(2)判別器網(wǎng)絡(luò)
判別器網(wǎng)絡(luò)D的主體結(jié)構(gòu)為VGG網(wǎng)絡(luò),并在卷積神經(jīng)網(wǎng)絡(luò)的每一層的最后加上一個(gè)LeakyReLU層以進(jìn)行激活,在特征圖輸出之前用BN層進(jìn)行歸一化操作。網(wǎng)絡(luò)整體采用多個(gè)相同的卷積塊組成,每個(gè)卷積塊的結(jié)構(gòu)具體如圖3 所示,卷積核步長(zhǎng)和濾波器個(gè)數(shù)隨層次的升高而不斷增加,特征圖的分辨率不斷降低而其維數(shù)不斷增大,最后一個(gè)卷積層輸出一個(gè)維度為512的低分辨率特征圖。在網(wǎng)絡(luò)最終輸出部分,使用兩個(gè)全連接層將特征圖輸出成一個(gè)概率,該值代表判別器能否能鑒別出超分辨率圖像和真實(shí)圖像的置信度得分,分?jǐn)?shù)越高表示判別器認(rèn)為輸入圖像是真實(shí)圖像的可能性越大。
圖3 判別器網(wǎng)絡(luò)D
生成器網(wǎng)絡(luò)G和鑒別器網(wǎng)絡(luò)D具有不同的網(wǎng)絡(luò)結(jié)構(gòu),但二者實(shí)質(zhì)上屬于同一個(gè)網(wǎng)絡(luò)結(jié)構(gòu)。因此在反向傳播梯度時(shí),二者的參數(shù)是互相共享的,并且共同進(jìn)行訓(xùn)練和更新。
在硬件設(shè)備上進(jìn)行深度學(xué)習(xí)算法運(yùn)算時(shí),需要考慮硬件設(shè)備是否滿足算法所需要的內(nèi)存及計(jì)算機(jī)算力的要求,我們可以采用模型復(fù)雜度分析的方法來(lái)估量。主要的衡量指標(biāo)是模型計(jì)算量(floating point operations)和參數(shù)(parameters)數(shù)量。
其中,深度學(xué)習(xí)的模型主要計(jì)算量是在卷積層,卷積層的計(jì)算方式為滑動(dòng)窗口計(jì)算,每層計(jì)算量為:
為卷積核的大小。主要的參數(shù)量則位于全連接層中,其計(jì)算公式為:
和分別為輸入和輸出的特征向量大小。最終,結(jié)合自身實(shí)驗(yàn)硬件內(nèi)存及計(jì)算機(jī)算力得出能否運(yùn)行該算法,當(dāng)不滿足條件時(shí)需要采取方法減少模型復(fù)雜度。在本文中,由于直接采用原始遙感圖像進(jìn)行超分辨率實(shí)驗(yàn)時(shí)出現(xiàn)內(nèi)存不足的情況,這是由于單次卷積運(yùn)算復(fù)雜度太大而造成的,因此提出了一種“小批量處理”的方法,先將一張圖像切分成若干張小圖像進(jìn)行超分辨率,超分辨率完成后再將它們合并得到一張完整的超分辨率圖像,這種方法能夠大幅降低單次運(yùn)算時(shí)的模型復(fù)雜度。
如一張512*512的圖像經(jīng)過(guò)1*1大小卷積核后的單層卷積計(jì)算量為=2*512*512*4*3 =6291456,而一張128*128的圖像在同樣大小卷積核中的作用下單層卷積計(jì)算量縮小16倍變?yōu)?393216。因此將一張512*512的圖像分割成16張128*128的圖像能夠大幅減少模型單次運(yùn)算時(shí)的算法復(fù)雜度。通過(guò)實(shí)驗(yàn)驗(yàn)證,這種“小批量處理”的方法能避免內(nèi)存不足的情況,在當(dāng)前實(shí)驗(yàn)硬件條件下亦可完成實(shí)驗(yàn)。
本文超分辨率及后續(xù)目標(biāo)檢測(cè)實(shí)驗(yàn)所用數(shù)據(jù)集為NWPU VHR-10 dataset。包含800張光學(xué)遙感圖像,作為原始未處理數(shù)據(jù)集。由于遙感圖像中往往包含較多的樹(shù)冠,如圖4所示。我們將其中包含樹(shù)冠的圖像挑選出來(lái)作為一個(gè)樹(shù)冠圖像數(shù)據(jù)集,挑選出包含獨(dú)立樹(shù)冠的遙感圖像233張。針對(duì)樹(shù)冠在遙感圖像中尺寸小、特征不明顯、易與草地混淆以及易成群造成標(biāo)注困難的特點(diǎn)采用超分辨率方法緩解問(wèn)題,繼而采用目前主流的目標(biāo)檢測(cè)YOLO算法[5]進(jìn)行實(shí)驗(yàn)檢測(cè)獨(dú)立樹(shù)冠,證明對(duì)于一些如樹(shù)冠這樣直接檢測(cè)難以取得較好效果的目標(biāo),可以結(jié)合超分辨率方法實(shí)現(xiàn)檢測(cè)精度提升。
圖4 包含獨(dú)立樹(shù)冠的遙感圖像
對(duì)其中的獨(dú)立樹(shù)冠進(jìn)行像素上的精確定位,檢測(cè)其數(shù)量及方位,便能對(duì)統(tǒng)計(jì)特定地區(qū)綠化程度,樹(shù)木種植數(shù)量的統(tǒng)計(jì)工作上提供一定程度的便利,并結(jié)合相應(yīng)綠化指標(biāo)如特定面積應(yīng)該種植多少樹(shù)木,得出該地區(qū)是否達(dá)到綠化標(biāo)準(zhǔn)。因此,如何能準(zhǔn)確的對(duì)遙感圖像中的獨(dú)立樹(shù)冠進(jìn)行精確的目標(biāo)檢測(cè)具有其實(shí)際效用。
本文將采用基于生成式對(duì)抗網(wǎng)絡(luò)的圖像超分辨率方法,并基于NWPU VHR-10 dataset數(shù)據(jù)集構(gòu)建自己的樹(shù)冠遙感圖像數(shù)據(jù)集,提高樹(shù)冠數(shù)據(jù)集的分辨率并采用YOLO目標(biāo)檢測(cè)算法分別對(duì)分辨率提升前后數(shù)據(jù)集進(jìn)行測(cè)試,對(duì)比樹(shù)冠的檢測(cè)精度,以期實(shí)現(xiàn)通過(guò)超分辨率來(lái)提高對(duì)樹(shù)冠的檢測(cè)精度。
本節(jié)將基于前文理論搭建出一個(gè)超分辨率生成式對(duì)抗網(wǎng)絡(luò)(SRGAN)模型。對(duì)基于NWPU VHR-10 dataset構(gòu)建的樹(shù)冠遙感圖像數(shù)據(jù)集進(jìn)行超分辨率實(shí)驗(yàn)。首先,需要構(gòu)建一個(gè)圖像分辨率相同的待超分辨率數(shù)據(jù)集(即低分辨率數(shù)據(jù)集)。因此首先需要將所有圖像統(tǒng)一下采樣(subsampled)到128*128的尺寸大小,即得到了低分辨率數(shù)據(jù)集,隨后通過(guò)遷移學(xué)習(xí)的思想引入預(yù)訓(xùn)練權(quán)重訓(xùn)練出一個(gè)實(shí)現(xiàn)分辨率提升4倍的超分辨率模型。
其具體步驟如下所示:
(1)首先將樹(shù)冠遙感數(shù)據(jù)集中的圖像進(jìn)行裁剪處理得到一個(gè)長(zhǎng)寬相同的圖像后進(jìn)行縮放使其所有圖像尺寸大小為512*512,在這個(gè)過(guò)程中需要盡可能的保留所有待檢測(cè)樹(shù)冠,剔除一些不必要的背景信息。將這個(gè)處理后的數(shù)據(jù)集作為真實(shí)的高分辨率圖像數(shù)據(jù)集(HR數(shù)據(jù)集)。其對(duì)應(yīng)的低分辨率圖像(LR圖像)由其下采樣獲得:當(dāng)HR數(shù)據(jù)集進(jìn)入超分辨率網(wǎng)絡(luò)時(shí),算法首先會(huì)將其隨機(jī)切割為16個(gè)尺寸為128*128大小的LR圖像,如下圖5所示。
圖5 小批量處理前后的圖像
(3)訓(xùn)練時(shí)設(shè)置上采樣因子為4(即將低分辨率輸入圖像的分辨率提高四倍),則切割后的每一個(gè)128*128的圖像分辨率提高到512*512。即實(shí)現(xiàn)一張512*512圖像擴(kuò)充為16張512*512圖像。若將這16個(gè)圖像再拼到一起就能得到一個(gè)2048*2048大小的超分辨率圖像,也就實(shí)現(xiàn)了4倍的分辨率提升。
將這233張包含獨(dú)立樹(shù)冠的圖像按上述方法處理,最終得到圖像數(shù)量為3728的超分辨率獨(dú)立樹(shù)冠遙感圖像。作為對(duì)比,將每張圖像切割后得到的128*128圖像不進(jìn)行任何處理得到3728張普通獨(dú)立樹(shù)冠遙感圖像。其中切割后的部分圖像不再包含樹(shù)冠,這些圖像中總計(jì)包含獨(dú)立樹(shù)冠數(shù)為5489棵。
對(duì)數(shù)據(jù)集中3728張獨(dú)立樹(shù)冠圖像進(jìn)行4倍分辨率提升。訓(xùn)練測(cè)試集比例9:1??梢钥闯觯直媛蕡D像的質(zhì)量較原始圖像有較大提升,如下圖所示:
圖6 獨(dú)立樹(shù)冠圖像超分辨率
YOLO算法(you only look once),是標(biāo)準(zhǔn)的one-stage算法,即同時(shí)完成對(duì)待檢測(cè)物體的位置檢測(cè)和類別檢測(cè),具有運(yùn)算精度高以及運(yùn)算速度快等優(yōu)勢(shì)。從2016年提出YOLO V1至今通過(guò)原作者的不斷完善,已經(jīng)成為目標(biāo)檢測(cè)領(lǐng)域綜合性能最強(qiáng)的算法之一。其最新一代YOLO V4目標(biāo)檢測(cè)的整體框架如下圖7所示:
圖7 YOLO V4整體框架圖
YOLO算法能直接在輸出層預(yù)測(cè)出目標(biāo)類別與位置,從而實(shí)現(xiàn)單步檢測(cè)。通過(guò)這種方法提高運(yùn)算速度,達(dá)到實(shí)時(shí)性要求[3]。圖中BackBone為YOLO V4的主干特征提取網(wǎng)絡(luò),其重要特點(diǎn)是使用了殘差網(wǎng)絡(luò)resblock_body模塊并結(jié)合CSPnet結(jié)構(gòu),該主干網(wǎng)絡(luò)由resblock_body模塊組合而成,這樣做的好處是利于網(wǎng)絡(luò)優(yōu)化,且極大程度上增加了模型深度,提高檢測(cè)精度。此外,YOLO V4中采用跳躍連接的方法以解決梯度消失或梯度爆炸。
3.2目標(biāo)檢測(cè)評(píng)價(jià)指標(biāo)
下述指標(biāo)為一些常用于衡量圖像目標(biāo)檢測(cè)質(zhì)量的指標(biāo):交并比(intersection over union,IOU)[1]、精度、總體的平均精度(mean average precision,mAP)[3]以及召回率[5]。IOU是模型生成的預(yù)測(cè)邊界框和真實(shí)邊界框的重疊率。如下圖8所示,圖中綠色框?yàn)槿斯?biāo)注的真實(shí)框,紅色框?yàn)轭A(yù)測(cè)框。
圖8 交并比計(jì)算示意圖
IOU的計(jì)算公式如下:
精度和召回率的計(jì)算公式如下:
其中 TP(True Positive)表示正確檢測(cè)到的目標(biāo)數(shù)量;FN(False Positive)表示未被發(fā)現(xiàn)或錯(cuò)過(guò)的目標(biāo)數(shù)量;FP(假陽(yáng)性或假警報(bào))代表錯(cuò)誤檢測(cè)的目標(biāo)數(shù)量。
對(duì)于目標(biāo)檢測(cè),類的平均精度(mAP)可以定義為:
本文中,我們采用多組超參數(shù)設(shè)置來(lái)對(duì)比超分辨率前后效果。每組實(shí)驗(yàn)中采用的超參數(shù)設(shè)置如下表所示。其中主要的影響因素為學(xué)習(xí)率,選擇三種常用的學(xué)習(xí)率大?。?.01、0.001和0.0001:設(shè)定不同的訓(xùn)練epochs數(shù)進(jìn)行實(shí)驗(yàn),如下表所示:
表1 參數(shù)設(shè)置
該實(shí)驗(yàn)分別對(duì)超分辨率前后數(shù)據(jù)集進(jìn)行目標(biāo)檢測(cè),數(shù)據(jù)集分別包含3728張圖像,含待檢測(cè)獨(dú)立樹(shù)冠數(shù)為5489,圖像分辨率分別為128*128和512*512。其中訓(xùn)練測(cè)試集比例為9:1。分別按照表1的參數(shù)設(shè)置,經(jīng)過(guò)30、50及100個(gè)epochs后,網(wǎng)絡(luò)對(duì)測(cè)試集的檢測(cè)效果展示如圖9所示:
其中超分辨率前后分辨率分別為128*128和512*512。如圖9所示,其中圖(a)表示標(biāo)注的樹(shù)冠數(shù)量及坐標(biāo),樹(shù)冠數(shù)量為6。從(b)、(d)、(f)中我們發(fā)現(xiàn),使用超分辨率前數(shù)據(jù)集時(shí),無(wú)論訓(xùn)練多少個(gè)epochs都沒(méi)能檢測(cè)出圖中最左邊的兩顆獨(dú)立樹(shù)冠;作為對(duì)比,(c)、(e)、(g)中即使訓(xùn)練30個(gè)epochs,超分辨率后數(shù)據(jù)集也能檢測(cè)出這兩顆獨(dú)立樹(shù)冠。
此外,分別對(duì)比圖(b)、(c);(d)、(e)以及(f)、(g)可以發(fā)現(xiàn)無(wú)論訓(xùn)練多少個(gè)epochs,超分辨率后數(shù)據(jù)集對(duì)于每棵獨(dú)立樹(shù)冠的檢測(cè)IOU值均大于或等于超分辨率前數(shù)據(jù)集。測(cè)試集其他圖像中,超分辨率后數(shù)據(jù)集檢測(cè)效果也均優(yōu)于超分辨率前數(shù)據(jù)集。此外,繪制每次實(shí)驗(yàn)的mAP圖以量化檢測(cè)結(jié)果:
如圖10所示,隨著三種實(shí)驗(yàn)中epochs數(shù)的不斷增加,超分辨率前數(shù)據(jù)集檢測(cè)mAP值不斷上升,為0.751、0.763和0.774;這種mAP增長(zhǎng)的趨勢(shì)同樣體現(xiàn)在超分辨率后數(shù)據(jù)集,分別為0.832、0.843和0.850。實(shí)驗(yàn)結(jié)果表明,采用4倍超分辨率提升的方法進(jìn)行獨(dú)立樹(shù)冠目標(biāo)檢測(cè),能夠使檢測(cè)精度提升約8%。
最后進(jìn)行的是整幅遙感圖像的目標(biāo)檢測(cè),代入目標(biāo)檢測(cè)實(shí)驗(yàn)中模型訓(xùn)練得到的最優(yōu)檢測(cè)權(quán)重best.pt,分別對(duì)整張超分辨率前遙感圖像和“小批量處理”中合并后的整張超分辨率遙感圖像進(jìn)行測(cè)試,檢測(cè)效果展示如下圖11所示:
圖11 整圖測(cè)試
如上圖11(a)所示,超分辨率前圖像中將田徑場(chǎng)中的草地誤判為樹(shù)冠(左上角),且沒(méi)有檢測(cè)出最右下角的樹(shù)冠;而在圖(b)中,不僅IOU值更高,并且沒(méi)有出現(xiàn)誤檢、漏檢的情況。對(duì)比11(c)和(d)也能發(fā)現(xiàn)超分辨率后圖像檢測(cè)出更多的樹(shù)冠,尤其是(d)圖檢測(cè)出更多的小樹(shù)冠,如中間部分在草地上零散的小樹(shù)冠。但是超分辨率前后的圖像中都沒(méi)能檢測(cè)出圖中左上角和底部的樹(shù)冠群。實(shí)驗(yàn)結(jié)果表明,使用圖像超分辨率對(duì)模型訓(xùn)練以及最終的檢測(cè)均有正面效果,但目標(biāo)檢測(cè)效果還有提升空間,主要體現(xiàn)在超分辨率圖像與原始。
本文結(jié)合超分辨率與目標(biāo)檢測(cè)兩種方法,對(duì)遙感圖像內(nèi)的樹(shù)冠進(jìn)行檢測(cè)統(tǒng)計(jì),可推廣到林業(yè)智能化用于統(tǒng)計(jì)特定地區(qū)植樹(shù)造林程度。通過(guò)實(shí)驗(yàn)對(duì)比,在保證其他實(shí)驗(yàn)環(huán)境一致的情況下超分辨率后的樹(shù)冠檢測(cè)精度相較于超分辨率前分別從0.751、0.763和0.774增長(zhǎng)到0.832、0.843和0.850,提升幅度約為8%,已具有極高的檢測(cè)效果,能夠?qū)崿F(xiàn)本文林業(yè)智能化的研究目的。本文方法仍具有提升空間,比如針對(duì)YOLO目標(biāo)檢測(cè)網(wǎng)絡(luò)缺陷可以提出進(jìn)一步的優(yōu)化方案以提升檢測(cè)精度。
[1]Cheng G,Han J. A survey on object detection in optical remote sensing images[J].ISPRS Journal of Photogrammetry and Remote Sensing, 2016(117): 11-28.
[2]鄭遠(yuǎn)攀,李廣陽(yáng),李曄.深度學(xué)習(xí)在圖像識(shí)別中的應(yīng)用研究綜述[J].計(jì)算機(jī)工程與應(yīng)用,2019, 55(12):20-36.
[3]Ship detection based on fused features and rebuilt YOLOv3 networks in optical remote-sensing images[J]. International Journal of Remote Sensing, 2021,42(2).
[4]張宗軍.基于深度學(xué)習(xí)的遙感圖像地面目標(biāo)檢測(cè)算法研究[D].中北大學(xué),2020.
[5]Gong Cheng, Junwei Han. A survey on object detection in optical remote sensing images. ISPRS Journal of Photogrammetry and Remote Sensing, 2016(117): 11-28.
Tree Crown Detection in Remote Sensing Image based on Image Super Resolution
Chen Zhen, Zhao Yafeng, Zhang Zhichao
(Northeast Forestry University, Harbin 150040 Heilongjiang)
Aiming at the problem that the poor quality of remote sensing image leads to the low effect of object detection, this paper proposes an image super-resolution method based on generative countermeasure network (GAN) to improve the overall quality of remote sensing image, and studies the existing common target detection algorithm Yolo. In view of the characteristics that it is not easy to detect the crown in remote sensing image, super-resolution is applied to detect the crown in remote sensing image, and the number and location of crown in a specific area are counted. The experimental results show that the super-resolution method plays a positive role in target detection, and the detection accuracy is improved by about 8%, which is conducive to the statistical work of the number of trees planted in specific areas.
Generative countermeasure network; Super resolution; Target detection; Tree crown; Remote sensing image
2021-05-02
陳振,男,湖北黃州人,電子與通信工程碩士研究生。研究方向:計(jì)算機(jī)視覺(jué)。
TP757
A
1672-1047(2021)03-0085-09
10.3969/j.issn.1672-1047.2021.03.23
[責(zé)任編輯:宋武]
黃岡職業(yè)技術(shù)學(xué)院學(xué)報(bào)2021年3期