魏 瑋,楊 茹,朱 葉
河北工業(yè)大學(xué) 人工智能與數(shù)據(jù)科學(xué)學(xué)院,天津 300401
近年來,基于深度學(xué)習(xí)的目標(biāo)檢測算法層出不窮,不少學(xué)者越來越關(guān)注算法面向工業(yè)界的應(yīng)用,尤其是對實(shí)際應(yīng)用場景是否有足夠的魯棒性。遙感圖像具有宏觀、客觀、綜合、實(shí)時、動態(tài)、快速等特點(diǎn),為地球資源調(diào)查與開發(fā)、國土整治、環(huán)境監(jiān)測,以及全球性的研究提供了新的手段。
隨著計算機(jī)視覺、人工智能技術(shù)的迅速發(fā)展,在眾多的目標(biāo)檢測算法中,基于深度學(xué)習(xí)的方法因其無需特征工程,適應(yīng)性強(qiáng),易于轉(zhuǎn)換等特點(diǎn)得到了較為廣泛的應(yīng)用[1]。因此用深度學(xué)習(xí)的方法來進(jìn)行遙感圖像的目標(biāo)檢測是目前研究的熱點(diǎn),也是未來發(fā)展的方向?,F(xiàn)階段通過深度學(xué)習(xí)來進(jìn)行目標(biāo)檢測的方法主要有兩種:兩階段(two-stage)檢測模型和單階段(one-stage)檢測模型。兩階段檢測模型,將圖片分成兩個階段處理,檢測精度較高,但是耗時過長,難以達(dá)到實(shí)時檢測效果,主要包括:R-CNN[2]、Fast R-CNN[3]、Faster R-CNN[4]、R-FCN[5]等。單階段檢測模型能實(shí)現(xiàn)端到端的檢測,有著更快的檢測速度,精度相較于兩階段檢測有所降低,主要包括:YOLO[6]、SSD[7]、YOLOv2[8]、YOLOv3[9]等。
從CornerNet[10]開始,Anchor-Free 的目標(biāo)檢測模型層出不窮,隨后達(dá)到了井噴的狀態(tài),意味著目標(biāo)檢測邁入了Anchor-Free 時代。早期的Anchor-Free 檢測模型主要有:DenseBox[11]、YOLO,而后新出的檢測模型主要 包括:ExtremeNet[12]、CenterNet[13]、FSAF[14]、FCOS[15]、FoveaBox[16]等。Anchor-Free 模型算法主要的優(yōu)勢在于拋棄了目前兩階段模型和單階段模型都用到的anchor boxes,主要原因主要有兩點(diǎn):一是一張圖片上提取的anchor boxes 數(shù)量較多,而目標(biāo)相對較少,從而造成正負(fù)樣本不均衡;二是一個像素點(diǎn)處有3組寬高比分別為1∶2、1∶1、2∶1的錨點(diǎn)框組成,根據(jù)目標(biāo)大小會引入更多的超參數(shù),比如anchor的數(shù)量、大小和寬高比等,影響模型訓(xùn)練效率。CenterNet 相較CornerNet 做出了改進(jìn),檢測精度和速度相較兩階段和單階段算法都提高不少,與YOLOv3算法在相同速度下,精度較前者提高4個點(diǎn),而且CenterNet結(jié)構(gòu)簡單,功能強(qiáng)大,亦可用于人體姿態(tài)檢測和3D目標(biāo)檢測。
本文將CenterNet算法應(yīng)用于遙感圖像的目標(biāo)檢測領(lǐng)域,為提高算法對遙感圖像的適用性和準(zhǔn)確率,對CenterNet 算法進(jìn)行改進(jìn)。對數(shù)據(jù)集進(jìn)行預(yù)處理,針對遙感圖像觀測面積廣,背景信息復(fù)雜,檢測實(shí)例大小差異較大,大小目標(biāo)分布不均衡等特點(diǎn),并且要求實(shí)現(xiàn)實(shí)時的目標(biāo)檢測,實(shí)驗(yàn)選擇檢測效果最好的Hourglass-104[17]作為主干網(wǎng)絡(luò),并對CenterNet網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行改進(jìn),在保證檢測速度的情況下,檢測精度有了較大提升,加快收斂速度并減少了參數(shù)計算量。
CenterNet 算法是 Zhou 等在 2019 年 4 月提出的,將檢測目標(biāo)建模成一個單點(diǎn),即目標(biāo)框的中心點(diǎn),通過熱點(diǎn)圖(keypoint heatmap)找到中心點(diǎn),然后根據(jù)該中心點(diǎn)的圖像特征回歸得到目標(biāo)的其他特征,比如目標(biāo)尺寸、3D坐標(biāo)方向、姿態(tài)信息等。原文使用了三種用于目標(biāo)檢測的網(wǎng)絡(luò),分別為 Rsenet-18[18]、DLA-34[19]、Hourglass-104,設(shè)置輸出分辨率的下采樣因子為4,所得熱力圖的前100個峰值為檢測目標(biāo)中心點(diǎn),設(shè)置閾值篩選得到最終目標(biāo)中心點(diǎn)。整個過程不基于anchor機(jī)制,不需要提前設(shè)置anchor 的超參數(shù),同時放棄NMS[20]操作,大大減少了網(wǎng)絡(luò)的計算量和訓(xùn)練時間。
將一張圖片輸入到全卷積神經(jīng)網(wǎng)絡(luò)中,生成一張熱力圖,熱力圖上的點(diǎn)和最終的目標(biāo)框有關(guān),接著將熱力圖上的點(diǎn)所對應(yīng)的圖像特征輸入預(yù)測網(wǎng)絡(luò)中直接預(yù)測目標(biāo)框的長寬,原文將檢測問題簡化成一個點(diǎn),即目標(biāo)中心點(diǎn),不僅算法思路簡單,并且具有很高的精度和速度。本文實(shí)驗(yàn)選取Hourglass網(wǎng)絡(luò)作為特征提取的全卷積網(wǎng)絡(luò),Hourglass 網(wǎng)絡(luò)級聯(lián)多個沙漏模塊提取目標(biāo)的多尺度特征,其中高分辨率特征捕獲多個關(guān)鍵點(diǎn)之間的相互關(guān)系,低分辨率特征捕獲局部語義信息,并且引入中間監(jiān)督進(jìn)行端到端的訓(xùn)練。選取Hourglass-104 作為檢測網(wǎng)絡(luò),CenterNet的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。具體算法步驟如下:
首先輸入I∈RW×H×3的圖像,通過檢測網(wǎng)絡(luò)Hourglass預(yù)測產(chǎn)生一張關(guān)鍵點(diǎn)的熱點(diǎn)圖(keypoint heatmap):
其中,W和H分別為圖像的寬和高,R為輸出的步長(stride),實(shí)驗(yàn)中R設(shè)置為4,C為檢測點(diǎn)類別的數(shù)量,本實(shí)驗(yàn)中C取80,代表數(shù)據(jù)集中有80 個類別。其中表示檢測到一個關(guān)鍵點(diǎn),表示背景。實(shí)際實(shí)驗(yàn)中,輸入圖像大小為512×512,輸出特征圖大小為128×128。
中心點(diǎn)預(yù)測、中心點(diǎn)偏置(offset)和目標(biāo)框大小的預(yù)測結(jié)果通過三支獨(dú)立的卷積操作得到。在預(yù)測階段,首先在熱點(diǎn)圖上篩選出大于等于8 領(lǐng)域的局部極大值(peaks),選擇置信度前100的peaks,每個關(guān)鍵點(diǎn)位置通過高斯分布函數(shù)可以計算出關(guān)鍵點(diǎn)的置信度Y值,下面解碼產(chǎn)生預(yù)測框坐標(biāo)結(jié)果:
圖1 CenterNet網(wǎng)絡(luò)結(jié)構(gòu)圖
CenterNet 中的損失函數(shù)的計算沿用了CornerNet中的做法,總的損失函數(shù)為中心點(diǎn)預(yù)測損失函數(shù)、目標(biāo)中心的偏置損失和目標(biāo)大小損失相加總和,每個損失函數(shù)有相對應(yīng)的權(quán)值。其中中心點(diǎn)預(yù)測損失函數(shù)是Focal Loss[21]根據(jù)CenterNet算法結(jié)構(gòu)進(jìn)行的改進(jìn),根據(jù)前人經(jīng)驗(yàn),F(xiàn)ocal Loss 超參數(shù)設(shè)置為2 和4,可以更好地提高算法檢測精度。損失函數(shù)分別如下:
此函數(shù)中心點(diǎn)預(yù)測損失函數(shù),其中α和β分別是2和4。
此函數(shù)為目標(biāo)中心偏置損失函數(shù),其中R為4。
此函數(shù)為目標(biāo)框大小損失函數(shù),總的損失函數(shù)為三個損失函數(shù)之和:
其中λsize=0.1,λoff=1。
CenterNet在目前目標(biāo)檢測算法中取得了很好的成果,且算法中每個目標(biāo)只檢測一個點(diǎn),不存在多個檢測框互相重疊的情況,因此省去了計算量較大的NMS 后處理步驟,給檢測領(lǐng)域帶來較大的突破。但是CenterNet算法仍存在缺點(diǎn),例如在檢測圖像中,如果存在兩個不同目標(biāo)邊框中心點(diǎn)重合的情況,下采樣時中心點(diǎn)就會擠到一起,檢測結(jié)果可能只能檢測到一個目標(biāo),而CenterNet對于這種情況沒有好的解決辦法。
遙感圖像是無人機(jī)在高空作業(yè)中采集的俯瞰航拍圖像集,Guo等[22]采用三鄰域點(diǎn)二值梯度輪廓特征對航拍車輛進(jìn)行檢測。航拍采集的圖像中很少存在不同目標(biāo)相互遮擋的問題,目標(biāo)框中心點(diǎn)重合情況也會大大地減少,有效地避免了CenterNet網(wǎng)絡(luò)的缺陷,因此將CenterNet 網(wǎng)絡(luò)應(yīng)用于遙感圖像的檢測存在著較大的優(yōu)勢。但是目標(biāo)檢測中密集檢測一直是檢測領(lǐng)域未能解決的難題,遙感圖像具有觀測面積大但目標(biāo)實(shí)例相對較小,目標(biāo)尺寸差異較大且分布不均勻等特點(diǎn),數(shù)據(jù)集圖片中像素是個位數(shù)的實(shí)例大量存在,這就給CenterNet 網(wǎng)絡(luò)帶來很大的挑戰(zhàn),直接將CenterNet 網(wǎng)絡(luò)用于遙感圖像的檢測很難有大的突破,必須要對CenterNet 網(wǎng)絡(luò)進(jìn)行改進(jìn),使網(wǎng)絡(luò)更好地對遙感圖像數(shù)據(jù)集的檢測,提高檢測效果。
CenterNet 算法在MSCOCO 數(shù)據(jù)集上取得良好的效果,而本文所使用的遙感數(shù)據(jù)集,實(shí)例種類較多、背景信息復(fù)雜,而且實(shí)例間分布差異較大,目標(biāo)大小差異較大,這給檢測任務(wù)帶來很大的挑戰(zhàn)。因此要使網(wǎng)絡(luò)更好地適應(yīng)遙感圖像,并且取得較好的檢測效果,就必須對CenterNet網(wǎng)絡(luò)進(jìn)行改進(jìn)。
CenterNet與其他流行的目標(biāo)檢測算法的效果對比如表1所示,可以看出CenterNet在檢測速度和準(zhǔn)確率方面取得了較好的平衡。
表1 CenterNet與流行算法效果對比
2.1.1 Hourglass-104網(wǎng)絡(luò)
本文選擇Hourglass-104 作為特征提取網(wǎng)絡(luò)。網(wǎng)絡(luò)結(jié)構(gòu)如圖2(a)所示,其中的一階Houglass 模塊為圖2(b)所示,該網(wǎng)絡(luò)為全卷積神經(jīng)網(wǎng)絡(luò),是編碼和解碼的結(jié)構(gòu)(encoder-decoder),重復(fù)使用自底向上(bottom-up)和自頂向下(top-down)并聯(lián)合中間結(jié)果的監(jiān)制機(jī)制在人體關(guān)鍵點(diǎn)檢測取得較好的效果,Hourglass-104是由兩個Hourglass模塊堆疊而成,殘差模塊是基本的網(wǎng)絡(luò)單元,如圖3所示。利用Hourglass的網(wǎng)絡(luò)特性,將它用于基于關(guān)鍵點(diǎn)的目標(biāo)檢測,提升了網(wǎng)絡(luò)的性能。
2.1.2 深度可分離卷積
深度可分離卷積(Depthwise Separable Convolutions)是一些輕量級網(wǎng)絡(luò),比如Xception[23]、MobileNet[24]等的重點(diǎn)所在,實(shí)際是將傳統(tǒng)的卷積操作分成兩步完成,先進(jìn)行空間關(guān)系映射的逐深度卷積(depthwise convolution),再進(jìn)行通道關(guān)系映射的逐點(diǎn)卷積(pointwise convolution),在網(wǎng)絡(luò)提取屬性較多的情況下,能大大減少參數(shù)計算量,提高網(wǎng)絡(luò)檢測效率。
2.1.3 改進(jìn)CenterNet中殘差模塊結(jié)構(gòu)
降低神經(jīng)網(wǎng)絡(luò)的計算量一直是網(wǎng)絡(luò)結(jié)構(gòu)優(yōu)化的目標(biāo)之一。Hourglass-104 是由兩個Houglass 模塊堆疊而成,網(wǎng)絡(luò)深度為104層,網(wǎng)絡(luò)的參數(shù)量非常大,已經(jīng)遠(yuǎn)大于50×106,參數(shù)量如表2所示。網(wǎng)絡(luò)基本組成模塊就是殘差模塊,網(wǎng)絡(luò)的大部分計算量也消耗在殘差模塊的卷積操作計算上,對于此次的遙感數(shù)據(jù)集來說,數(shù)據(jù)集過大,圖像分辨率較大且背景復(fù)雜,訓(xùn)練時間較長,對網(wǎng)絡(luò)結(jié)構(gòu)和硬件設(shè)施來說都是一個挑戰(zhàn)。
圖2 (a)Houglass-104網(wǎng)絡(luò)結(jié)構(gòu)
圖2 (b) 一階Houglass模塊
圖3 殘差模塊
表2 Hourglass-104參數(shù)數(shù)量
針對上述問題,將整個Hourglass-104網(wǎng)絡(luò)中的殘差模塊中的第一個3×3卷積替換成深度可分離卷積,先進(jìn)行3×3空間卷積,再進(jìn)行1×1通道卷積在保持精度平衡的情況下,減少網(wǎng)絡(luò)參數(shù),提高網(wǎng)絡(luò)的檢測速度。改進(jìn)的殘差模塊如圖4所示。
圖4 改進(jìn)后的殘差模塊
殘差模塊中的標(biāo)準(zhǔn)卷積替換成深度可分離卷積后,網(wǎng)絡(luò)結(jié)構(gòu)的詳細(xì)對比如表3所示。
其中標(biāo)準(zhǔn)卷積的計算量為:
h×w×c×k×3×3
表3 殘差網(wǎng)絡(luò)結(jié)構(gòu)對比
Depthwise卷積計算量為:
h×w×c×3×3
Pointwise卷積計算量為:
h×w×c×k
計算量對比為:
注意力機(jī)制以其特有的數(shù)據(jù)處理的方式被廣泛應(yīng)用于自然語言處理、圖像識別及語音處理等任務(wù)中,使網(wǎng)絡(luò)能自動學(xué)習(xí)到圖像或文字中需要注意的地方,即感興趣的信息。主要分為三種:空間注意力機(jī)制、通道注意力機(jī)制、空間和通道混合注意力機(jī)制。針對遙感數(shù)據(jù)集中圖像觀測面積大,信息量大,檢測實(shí)例中目標(biāo)大小差異較大,大目標(biāo)少且獨(dú)立,小目標(biāo)多且集中的特點(diǎn),注意力機(jī)制能很好地學(xué)習(xí)到遙感圖像中的目標(biāo)特征,并且抑制非目標(biāo)特征,強(qiáng)調(diào)實(shí)例信息,抑制背景信息,提高檢測精度。
本實(shí)驗(yàn)選擇代表空間和通道混合注意力機(jī)制的CBAM[25](Convolutional Bottleneck Attention Module)注意力機(jī)制,如圖5 所示,幫助模型更好地選擇中間特征。
圖5 CBAM模塊結(jié)構(gòu)圖
CBAM 模塊是一個輕量級和通用的模塊,所以CBAM模塊可以插入到整個網(wǎng)絡(luò)的卷積模塊中,實(shí)現(xiàn)端到端的同步訓(xùn)練。本實(shí)驗(yàn)主要是在圖像輸入Hourglass主干網(wǎng)絡(luò)之前的卷積模塊中插入大小為7×7的Attention模塊,同時在Hourglass 網(wǎng)絡(luò)中兩個堆疊的Hourglass 模塊之后的卷積模塊中分別插入3×3 的Attention 模塊。插入的注意力機(jī)制模塊能使網(wǎng)絡(luò)提取到更多圖像中的關(guān)鍵信息,提高數(shù)據(jù)集中小目標(biāo)的檢測精度。網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示。
圖6 加入注意力機(jī)制后的網(wǎng)絡(luò)結(jié)構(gòu)
本文使用的遙感數(shù)據(jù)集為DOTA-v1.5[26],較DOTA-v1.0增加了一類,總共包含16類:飛機(jī)、船舶、儲油罐、棒球場、網(wǎng)球場、籃球場、田徑場、海港、橋梁、小型車輛、大型車輛、直升機(jī)、環(huán)形交叉路口、足球場、游泳池、集裝箱起重機(jī)。
數(shù)據(jù)預(yù)處理主要包括:數(shù)據(jù)集圖像裁剪、標(biāo)簽轉(zhuǎn)換、歸一化。原數(shù)據(jù)集中圖片的像素值很大,大部分在1 000×1 000~4 000×4 000之間,無法直接輸入神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,需要對其進(jìn)行裁剪。裁剪所得圖片相鄰的圖像之間重合面積不超過100像素,當(dāng)實(shí)例在裁剪過程中被分割時,如果達(dá)到原實(shí)例面積的70%,則保留該實(shí)例,否則舍棄。最終將原數(shù)據(jù)集統(tǒng)一裁剪成1 024×1 024大小,效果如圖7(a)所示。裁剪過后總共有19 222張圖像,其中訓(xùn)練集13 309 張,測試集1 966 張,驗(yàn)證集3 947 張。
圖7 裁剪前后對比圖
原數(shù)據(jù)集的4 個坐標(biāo)標(biāo)簽是以實(shí)例框其中一個點(diǎn)為起點(diǎn),順時針旋轉(zhuǎn)順序排列形成的任意四邊形,標(biāo)簽文件也是.txt文件格式,參照原實(shí)驗(yàn)所用MSCOCO數(shù)據(jù)集格式,需要將標(biāo)簽轉(zhuǎn)換成平行框標(biāo)簽格式,并生成所對應(yīng)的.json文件,如圖8所示。
圖8 標(biāo)簽轉(zhuǎn)換前后對比圖
新生成的標(biāo)簽轉(zhuǎn)換格式如下:
其中xmax、xmin為原標(biāo)簽中4個坐標(biāo)點(diǎn)中x坐標(biāo)的最大、最小值,ymax、ymin為y坐標(biāo)的最大、最小值。width、height分別為邊界框的寬和高。
最后計算所有圖片的均值和方差,將數(shù)據(jù)集進(jìn)行歸一化處理。
本實(shí)驗(yàn)使用DOTA-v1.5 遙感數(shù)據(jù)集進(jìn)行訓(xùn)練,實(shí)驗(yàn)基于PyTorch 深度學(xué)習(xí)框架,在Anaconda 上搭建Python=3.6,PyTorch v0.4.1 的虛擬環(huán)境,使用改進(jìn)前后的CenterNet算法,訓(xùn)練和測試均在Ubuntu 16.04系統(tǒng)、NVIDIA 1070Ti 顯卡、CUDA9.0 上進(jìn)行。實(shí)驗(yàn)部分參數(shù)設(shè)置如表4所示。
表4 實(shí)驗(yàn)部分參數(shù)設(shè)置
經(jīng)過漫長的90 輪左右訓(xùn)練,損失基本達(dá)到平穩(wěn)狀態(tài),原算法與改進(jìn)后算法的損失函數(shù)對比圖如圖9、圖10所示,其中圖9 為總的loss 對比,是中心點(diǎn)預(yù)測損失函數(shù)、目標(biāo)中心的偏置損失和目標(biāo)大小損失相加以固定權(quán)重相加的總和,可以看到改進(jìn)后算法比原算法損失降低了0.5 左右,并且加快了算法的收斂速度。圖10(a)~(c)為hm_loss、wh_loss、off_loss 各自的對比圖,同樣說明網(wǎng)絡(luò)損失降低,收斂速度加快,證明改進(jìn)后算法優(yōu)于原算法。
圖9 改進(jìn)前總損失函數(shù)對比圖
表5 為90 輪在測試集上的平均精度和召回率的對比結(jié)果,IoU為0.5時為整個網(wǎng)絡(luò)的mAP,改進(jìn)后算法較之前算法精度有明顯提升,但也存在一些問題,比如IoU從0.5到0.75時,AP值大幅下降,說明改進(jìn)后的算法依然存在很多定位不準(zhǔn)確的目標(biāo)框,通過觀察序號10、11、12,小目標(biāo)的召回率依舊較低,但是相比改進(jìn)之前有所提高。
表6 為原算法和改進(jìn)之后算法對數(shù)據(jù)集中各個類別的mAP 對比,可以看出,改進(jìn)前和改進(jìn)后的算法對尺寸較大、分布稀疏的實(shí)例,比如籃球場(basketball court)、田徑場(tennis court)檢測效果都比較好,改進(jìn)后比改進(jìn)之前的檢測精度有所提高。但是對尺寸較小、分布集中的小目標(biāo),比如船(ship)、小車輛(small vehicle)來說,改進(jìn)后的算法一定程度上提高了小目標(biāo)的精度,相較于未改進(jìn)之前精度有一定的提升,但是整體來看,相對大目標(biāo)來說,小目標(biāo)精度還是偏低。其中部分檢測目標(biāo),比如海港(harbor)等改進(jìn)之后的檢測效果明顯提升,漏檢率大大降低。充分說明了改進(jìn)后的算法較改進(jìn)前的算法有明顯的提升。
表5 測試結(jié)果對比圖
圖10 改進(jìn)后hm_loss、wh_loss、off_loss損失函數(shù)對比圖
表6 各類別mAP對比 %
從數(shù)據(jù)集中隨機(jī)挑選相同的圖片分別用改進(jìn)前后的算法進(jìn)行測試,圖11 為效果對比圖,其中左側(cè)是CenterNet算法,右側(cè)為本文改進(jìn)算法。
圖11(a)是海港圖片,改進(jìn)之前基本檢測不到海港(harbor)實(shí)例,改進(jìn)之后海港實(shí)例檢測效果明顯提升。圖11(c)為密集船只,改進(jìn)后小目標(biāo)船只(ship)的檢測數(shù)量明顯增加,同時檢測出海港(harbor)和一些小型車輛(small vehicle)等小目標(biāo)。圖11(d)是環(huán)形交叉路口和一些小車輛,檢測效果相近,改進(jìn)后的算法檢測出了圖片左側(cè)的游泳池,游泳池實(shí)例可視面積只有原實(shí)例面積的1/5 左右,降低了網(wǎng)絡(luò)的漏檢率,提高了檢測精度,進(jìn)一步說明改進(jìn)后算法整體優(yōu)于CenterNet。
圖11 (a) 海港
圖11 (b)海港同一位置的細(xì)節(jié)對比圖
圖11 (c)密集船只
圖11 (d)環(huán)形交叉路口和小型車輛
使用兩階段算法Faster R-CNN 和單階段算法SSD、YOLOv3、CenterNet 和本實(shí)驗(yàn)改進(jìn)算法做對比實(shí)驗(yàn),對比結(jié)果如表7所示。
表7 不同算法檢測結(jié)果對比
由圖11 和表7 可以看出,改進(jìn)的CenterNet 算法與原CenterNet 算法相比,平均檢測時間減少了0.004 s,mAP 提高了9.7 個百分點(diǎn),減少了網(wǎng)絡(luò)的漏檢率,且一定程度上提高了小目標(biāo)的檢測率。
改進(jìn)后算法精度與兩階段Faster R-CNN 算法基本持平,但是檢測速度約為其138 倍,改進(jìn)后算法檢測精度和檢測速度都超過了SSD 算法和YOLOv3 算法,取得較好的成果,證明了網(wǎng)絡(luò)在遙感圖像檢測上的魯棒性。
本實(shí)驗(yàn)將CenterNet算法應(yīng)用到遙感圖像目標(biāo)檢測中,針對遙感圖像觀測面積大但目標(biāo)實(shí)例相對較小,目標(biāo)大小差異較大且大小目標(biāo)分布不均等問題,提出了改進(jìn)的CenterNet 算法,使用深度可分離卷積代替標(biāo)準(zhǔn)卷積,提高了檢測效率,同時使用注意力機(jī)制,抑制無用信息,提高檢測精度,證明了算法的可行性和合理性。
由于數(shù)據(jù)集較大,數(shù)據(jù)集中小目標(biāo)較多且集中,還有硬件設(shè)施等問題,檢測效果仍存在一定的局限性,下一步將結(jié)合輕量級網(wǎng)絡(luò)和特征融合的思路進(jìn)行下一步的研究。