亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種Anchor Free的無(wú)人機(jī)檢測(cè)方法

        2021-01-19 02:24:12文,孫
        關(guān)鍵詞:像素點(diǎn)邊界樣本

        耿 文,孫 涵

        (1.南京航空航天大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院/人工智能學(xué)院,江蘇 南京 211106;2.南京航空航天大學(xué) 模式分析與機(jī)器智能工信部重點(diǎn)實(shí)驗(yàn)室,江蘇 南京 211106)

        0 引 言

        目前,無(wú)人機(jī)已經(jīng)被廣泛應(yīng)用于商業(yè)和娛樂(lè)等領(lǐng)域,它在帶來(lái)極大便利的同時(shí),也在威脅著個(gè)人隱私,甚至?xí){到民航的安全,因此對(duì)于無(wú)人機(jī)的檢測(cè)變得越來(lái)越重要。

        目前的無(wú)人機(jī)檢測(cè)技術(shù)都是建立在通用目標(biāo)檢測(cè)算法基礎(chǔ)之上的。起初,通用目標(biāo)檢測(cè)算法采用滑動(dòng)窗口的方式來(lái)預(yù)測(cè)目標(biāo)的位置。隨著深度學(xué)習(xí)的崛起,這種自動(dòng)從數(shù)據(jù)中學(xué)習(xí)特征表示的方式被廣泛應(yīng)用到目標(biāo)檢測(cè)中。R-CNN[1]和Fast R-CNN[2]通過(guò)區(qū)域建議生成來(lái)提取感興趣目標(biāo)區(qū)域。之后,基于anchor的RPN[3]很快取代了區(qū)域建議生成這種方式。由此,anchor被廣泛應(yīng)用于各種目標(biāo)檢測(cè)應(yīng)用中。目前主流的目標(biāo)檢測(cè)算法,比如Faster R-CNN[3]、SSD[4]和YOLOv2[5]都依賴(lài)于一組預(yù)先定義的anchor。

        盡管這些基于anchor的目標(biāo)檢測(cè)算法取得了優(yōu)異的成績(jī),但是仍然存在著一些問(wèn)題:

        (1)像文獻(xiàn)[3,6]中的目標(biāo)檢測(cè)算法的性能與anchor的尺寸、長(zhǎng)寬比和數(shù)量有著直接的關(guān)系。如果預(yù)先定義的anchor參數(shù)不合適,這會(huì)極大地影響目標(biāo)檢測(cè)算法的性能。

        (2)anchor的尺度和長(zhǎng)寬比是固定的,因此目標(biāo)檢測(cè)算法在處理形狀變換比較大的目標(biāo)時(shí)依舊會(huì)遇到困難,特別是對(duì)于小目標(biāo)。預(yù)先定義的anchor還限制了目標(biāo)檢測(cè)算法的泛化能力[7]。

        (3)基于anchor的目標(biāo)檢測(cè)算法一般會(huì)采用密集anchor的方式來(lái)獲得比較高的召回率。比如特征金字塔網(wǎng)絡(luò)(FPN[8])有超過(guò)18萬(wàn)個(gè)anchor,在訓(xùn)練過(guò)程中,大部分的anchor都被標(biāo)記為負(fù)樣本,這會(huì)加重正負(fù)樣本的不平衡性。

        (4)在訓(xùn)練時(shí),需要計(jì)算所有anchor與真實(shí)框的IoU得分,過(guò)多的anchor會(huì)顯著增加計(jì)算量和內(nèi)存占用。

        為了解決以上問(wèn)題,最直接的辦法就是拋棄這些預(yù)先定義的anchor,采用anchor free的方法來(lái)檢測(cè)目標(biāo)。一階段目標(biāo)檢測(cè)算法YOLOv1[9]是最早的anchor free檢測(cè)方法,它是在每個(gè)網(wǎng)格上直接預(yù)測(cè)兩個(gè)候選邊界框的參數(shù)。目前,越來(lái)越多的anchor free檢測(cè)方法被提出。CornerNet[10]預(yù)測(cè)的是兩組角點(diǎn)(左上角和右下角)。ExtremeNet[11]是通過(guò)預(yù)測(cè)極值點(diǎn)和中心點(diǎn)來(lái)檢測(cè)目標(biāo)的。FSAF[12]添加了兩個(gè)卷積層,這兩個(gè)卷積層分別負(fù)責(zé)anchor free方法的目標(biāo)分類(lèi)和邊界框回歸。FCOS[13]為了剔除遠(yuǎn)離目標(biāo)中心的低質(zhì)量檢測(cè)框,提出了中心度分支。

        1 相關(guān)工作

        1.1 目標(biāo)檢測(cè)

        起初,R-CNN[1]和Fast R-CNN[2]通過(guò)區(qū)域建議生成方法來(lái)提取感興趣目標(biāo)區(qū)域。接著,基于anchor的Region Proposal Network[3](RPN)很快取代了區(qū)域建議生成方法。由此,anchor被廣泛應(yīng)用于各種目標(biāo)檢測(cè)框架中。

        目前基于anchor的檢測(cè)器主要分為兩類(lèi):兩階段和一階段。兩階段的目標(biāo)檢測(cè)方法主要有Faster R-CNN[3]、SPP-Net[14]和HyperNet[15]。這些方法首先生成一系列的目標(biāo)候選邊界框,然后使用卷積神經(jīng)網(wǎng)絡(luò)去分類(lèi)這些目標(biāo)。一階段的目標(biāo)檢測(cè)方法主要有SSD[4]和YOLOv2[5]。與兩階段目標(biāo)檢測(cè)方法相比較,一階段目標(biāo)檢測(cè)方法直接將目標(biāo)定位問(wèn)題轉(zhuǎn)化為目標(biāo)回歸問(wèn)題。

        為了改善anchor的能力,目前也有許多成功的嘗試。MetaAnchor[7]可以從任意預(yù)先定義的anchor中動(dòng)態(tài)生成anchor函數(shù)。Guided-Anchoring[16]聯(lián)合預(yù)測(cè)目標(biāo)中心位置以及不同位置上可能存在的目標(biāo)尺度和長(zhǎng)寬比,以此來(lái)動(dòng)態(tài)地檢測(cè)目標(biāo)。

        解決anchor產(chǎn)生的問(wèn)題最直接的辦法其實(shí)是拋棄這些預(yù)先定義的anchor,采用anchor free的方法。一階段目標(biāo)檢測(cè)器YOLOv1[9]是最早的anchor free檢測(cè)方法。后來(lái),anchor free的目標(biāo)檢測(cè)算法逐漸分為兩類(lèi):基于關(guān)鍵點(diǎn)的和基于密集采樣的?;陉P(guān)鍵點(diǎn)的方法主要有CornerNet[10]和ExtremeNet[11]?;诿芗蓸拥姆椒ㄖ饕蠪SAF[12]和FCOS[13]。

        1.2 小目標(biāo)檢測(cè)

        最初對(duì)于小目標(biāo)的檢測(cè)大都使用傳統(tǒng)方法。文獻(xiàn)[17]利用目標(biāo)的高頻特性來(lái)檢測(cè)小目標(biāo);文獻(xiàn)[18]是基于卡爾曼濾波的小目標(biāo)檢測(cè)與追蹤;文獻(xiàn)[19]中使用Difference of Gaussian(DoG)算法檢測(cè)小目標(biāo),然后使用卡爾曼濾波與粒子濾波結(jié)合的方式來(lái)追蹤小目標(biāo)。

        隨著深度學(xué)習(xí)的大熱,基于深度學(xué)習(xí)的小目標(biāo)檢測(cè)算法得到了廣泛應(yīng)用。2017年,陳江昀基于卷積神經(jīng)網(wǎng)絡(luò)CNN和超像素算法提出了一種新型的面向微小目標(biāo)的檢測(cè)方法[20]。2018年,郭之先提出了一種改進(jìn)的Faster R-CNN檢測(cè)算法[21]用來(lái)檢測(cè)交通場(chǎng)景中的小目標(biāo)。

        1.3 無(wú)人機(jī)檢測(cè)

        關(guān)于無(wú)人機(jī)檢測(cè)的算法可以分為傳統(tǒng)的方法和基于深度學(xué)習(xí)的方法。傳統(tǒng)方法中,文獻(xiàn)[22]利用卡爾曼模型來(lái)動(dòng)態(tài)地檢測(cè)和跟蹤無(wú)人機(jī)。文獻(xiàn)[23]從無(wú)人機(jī)目標(biāo)的移動(dòng)性、空間性、振動(dòng)性這三個(gè)方面建立了無(wú)人機(jī)檢測(cè)系統(tǒng)。

        基于深度學(xué)習(xí)的方法中,文獻(xiàn)[24]結(jié)合CNN和運(yùn)動(dòng)補(bǔ)償來(lái)檢測(cè)視頻中的飛行目標(biāo)。文獻(xiàn)[25]提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)(CNNs)的學(xué)習(xí)網(wǎng)絡(luò),實(shí)現(xiàn)了無(wú)人機(jī)目標(biāo)的檢測(cè)。文獻(xiàn)[26]提出了兩種基于SSD的無(wú)人機(jī)檢測(cè)方法,一種方法利用ResNet網(wǎng)絡(luò)進(jìn)行特征提取來(lái)檢測(cè)無(wú)人機(jī),另一種方法是直接將SSD檢測(cè)到的無(wú)人機(jī)目標(biāo)圖像送入到AlexNet網(wǎng)絡(luò)中進(jìn)行微調(diào)。文獻(xiàn)[27]針對(duì)固定相機(jī)和運(yùn)動(dòng)相機(jī),設(shè)計(jì)了兩種不同的方法來(lái)檢測(cè)視頻中的小型無(wú)人機(jī)。

        2 模型和方法

        受FSAF和FCOS的啟發(fā),該文提出了一種anchor free的無(wú)人機(jī)檢測(cè)方法。

        首先,針對(duì)地對(duì)空拍攝的無(wú)人機(jī)目標(biāo)大部分都是小尺度的情況,主干網(wǎng)絡(luò)要選取適合提取小目標(biāo)特征的網(wǎng)絡(luò),該文選取HRNet[28]作為主干網(wǎng)絡(luò)。HRNet網(wǎng)絡(luò)可以得到目標(biāo)豐富的高分辨率特征表示,這對(duì)于網(wǎng)絡(luò)的分類(lèi)和回歸是有益的。對(duì)應(yīng)的,neck網(wǎng)絡(luò)由FPN變?yōu)榱薍RNet[28]作者提出的HRFPN,使得金字塔特征圖在下采樣的過(guò)程中保留更多的細(xì)粒度信息。

        接著,采用逐像素的方式來(lái)預(yù)測(cè)感興趣區(qū)域,采用soft-NMS方法對(duì)邊界框進(jìn)行排名。最后,對(duì)于置信度損失和回歸損失,分別采用Focal Loss損失和Smooth L1損失。Focal Loss損失關(guān)注困難樣本和平衡正負(fù)樣本數(shù)量。

        2.1 網(wǎng)絡(luò)模型

        如圖1所示,該網(wǎng)絡(luò)模型主要包括三個(gè)部分:主干網(wǎng)絡(luò)、HRFPN和head。

        圖1 網(wǎng)絡(luò)結(jié)構(gòu)

        對(duì)于主干網(wǎng)絡(luò),放棄了常用的ResNet和ResNeXt,采用高分辨率網(wǎng)絡(luò)HRNet。HRNet由四個(gè)階段的子網(wǎng)絡(luò)組成,第一階段子網(wǎng)絡(luò)輸出高分辨率特征圖,然后每新增一個(gè)階段,該階段子網(wǎng)絡(luò)的輸出特征圖分辨率會(huì)降低2倍。為了得到目標(biāo)豐富的高分辨率表示特征,該網(wǎng)絡(luò)將多分辨率子網(wǎng)并行連接,然后進(jìn)行多次的多尺度融合,這樣使得每一個(gè)高分辨率到低分辨率的表示特征都從其他并行表示中反復(fù)接收信息。因此,預(yù)測(cè)的特征圖會(huì)更加具有細(xì)粒度的特征,在空間上的表示也更加精確。HRFPN代替?zhèn)鹘y(tǒng)的FPN,用來(lái)構(gòu)建一個(gè)多層次的特征金字塔圖。首先低分辨率的特征表示進(jìn)行雙線(xiàn)性上采樣,然后將這些特征表示堆疊起來(lái),最后通過(guò)多層次的平均池化進(jìn)行下采樣獲得多層金字塔特征圖。head模塊包括分類(lèi)和回歸分支。該模塊主要是在感興趣區(qū)域采用逐像素預(yù)測(cè)的方法來(lái)進(jìn)行目標(biāo)分類(lèi)和回歸。

        2.2 正負(fù)樣本劃分

        一般anchor free的目標(biāo)檢測(cè)方法需要對(duì)特征圖從左到右從上到下進(jìn)行掃描,然后每個(gè)像素點(diǎn)都預(yù)測(cè)一個(gè)分類(lèi)結(jié)果和回歸邊界框的偏移量。對(duì)這些像素點(diǎn)劃分正負(fù)樣本的時(shí)候,一般的方法是如果像素點(diǎn)落在目標(biāo)區(qū)域內(nèi),該像素點(diǎn)就是正樣本,否則為負(fù)樣本,但是考慮到目標(biāo)真實(shí)邊界框邊緣的像素點(diǎn)都遠(yuǎn)離目標(biāo)中心,如果將這些像素點(diǎn)作為正樣本,對(duì)網(wǎng)絡(luò)模型的訓(xùn)練會(huì)造成困難。尤其對(duì)于小目標(biāo)來(lái)講,它的邊緣點(diǎn)與背景像素更為接近,這無(wú)疑增加了小目標(biāo)檢測(cè)的困難度。綜上考慮,將目標(biāo)真實(shí)邊界框中的邊緣附件的像素點(diǎn)作為負(fù)樣本,將落在目標(biāo)中心附件的像素點(diǎn)作為正樣本,如圖2所示。

        圖2 目標(biāo)區(qū)域的正負(fù)樣本劃分

        該文借鑒了Kong Tao、Sun Fuchun和Liu Huaping等人提出的“Object Fovea”思想,通過(guò)參數(shù)δ1來(lái)調(diào)節(jié)目標(biāo)的寬和高,將真實(shí)邊界框的區(qū)域向目標(biāo)中心收縮一些,收縮后的邊界框內(nèi)的像素點(diǎn)作為正樣本;通過(guò)參數(shù)δ2再次調(diào)節(jié)邊界框的寬和高,將邊界框向外擴(kuò)展一些,擴(kuò)展后的邊界框邊緣的像素點(diǎn)作為負(fù)樣本,處于兩個(gè)邊界框之間內(nèi)的像素點(diǎn)作為忽略樣本,不參與網(wǎng)絡(luò)分類(lèi)和回歸。忽略樣本區(qū)域的存在增加了正負(fù)樣本之間的判別度,從而提高了網(wǎng)絡(luò)的性能。該文使用(x1,y1,x2,y2)表示目標(biāo)的真實(shí)邊界框,也就是目標(biāo)左上角和右下角的位置。目標(biāo)邊界框的縮放公式如下所示:

        (1)

        由于該文采用了逐像素預(yù)測(cè)目標(biāo)的方法,雖然能很好地提升網(wǎng)絡(luò)召回率,但是在逐像素預(yù)測(cè)的過(guò)程中會(huì)產(chǎn)生許多低質(zhì)量的預(yù)測(cè)邊界框。雖然用目標(biāo)的中心區(qū)域作為正樣本區(qū)域已經(jīng)丟棄了一些遠(yuǎn)離目標(biāo)中心的低質(zhì)量邊界框,但是,正樣本區(qū)域的邊緣區(qū)域依舊還是會(huì)存在一些低質(zhì)量的邊界框。基于此,該文借鑒了FCOS的centerness概念,提出利用中心度來(lái)衰減遠(yuǎn)離目標(biāo)中心的訓(xùn)練像素點(diǎn)的置信度。中心度越大,表明像素點(diǎn)越靠近目標(biāo)中心,反之,像素點(diǎn)離目標(biāo)中心越遠(yuǎn)。這樣中心度就可以抑制檢測(cè)到的低質(zhì)量的邊界框,并且中心度策略不會(huì)引入任何超參數(shù)。中心度計(jì)算公式如下:

        (2)

        其中,(tx1,ty1,tx2,ty2)是由式(3)計(jì)算出來(lái)的邊界框回歸的偏移量。網(wǎng)絡(luò)訓(xùn)練時(shí),中心度采用二元交叉熵?fù)p失(binary cross entropy)來(lái)約束中心度取值的范圍。中心度取值的范圍為(0,1)。中心度策略就是在每層預(yù)測(cè)特征圖上添加一個(gè)網(wǎng)絡(luò)分支,該網(wǎng)絡(luò)分支與分類(lèi)并行,這就相當(dāng)于給網(wǎng)絡(luò)模型添加了一個(gè)中心度損失。中心度損失會(huì)保證預(yù)測(cè)的邊界框盡可能地靠近目標(biāo)中心。在訓(xùn)練的過(guò)程中,約束中心度的值,使其接近于0。這樣在測(cè)試網(wǎng)絡(luò)模型的過(guò)程中,soft-NMS就可以更好地濾除遠(yuǎn)離目標(biāo)中心的低質(zhì)量邊界框,從而提高網(wǎng)絡(luò)模型檢測(cè)性能。

        2.3 邊界框回歸

        對(duì)目標(biāo)區(qū)域進(jìn)行正負(fù)樣本劃分后,采用多尺度策略,利用HRFPN網(wǎng)絡(luò)生成的多層金字塔特征圖來(lái)檢測(cè)不同尺度的目標(biāo)。每個(gè)特征圖要預(yù)測(cè)的目標(biāo)都有一個(gè)正樣本區(qū)域(感興趣區(qū)域),對(duì)每個(gè)正樣本區(qū)域進(jìn)行逐像素預(yù)測(cè)。如圖3所示,預(yù)測(cè)由兩個(gè)分支網(wǎng)絡(luò)負(fù)責(zé),一個(gè)分支網(wǎng)絡(luò)負(fù)責(zé)分類(lèi),另一個(gè)分支網(wǎng)絡(luò)負(fù)責(zé)邊界框回歸。

        圖3 目標(biāo)分類(lèi)和回歸示意

        負(fù)責(zé)邊界框回歸的分支網(wǎng)絡(luò),將感興趣區(qū)域內(nèi)的像素坐標(biāo)(x,y)映射到原始圖上的坐標(biāo),然后計(jì)算映射后的坐標(biāo)與其所屬目標(biāo)樣本的真實(shí)邊界框的偏移量。偏移量計(jì)算公式如下:

        (3)

        其中,2l是第l層金字塔特征圖的stride值,s應(yīng)該選擇與目標(biāo)邊框面積最接近的尺度。通過(guò)調(diào)整s,可以控制每個(gè)特征圖上覆蓋目標(biāo)的尺度范圍。(tx1,ty1,tx2,ty2)的直觀含義可以參考圖4,這里(tx1,ty1,tx2,ty2)不再是簡(jiǎn)單地衡量與邊界框四周的距離值,而是衡量與邊界框四周的偏移程度,使用log函數(shù)來(lái)計(jì)算這種偏移程度。

        圖4 偏移量直觀含義

        2.4 損失函數(shù)

        訓(xùn)練損失包括置信損失和定位損失,損失定義如下:

        (4)

        置信損失Lcls采用的是Focal loss,定位損失Lloc采用的是Smooth L1損失。Npos是正樣本的數(shù)量,c={0,1}是來(lái)匹配預(yù)測(cè)的框與類(lèi)別p的真實(shí)邊界框,如果c=1,預(yù)測(cè)框是正樣本,否則為負(fù)樣本。λ在實(shí)驗(yàn)中為1用來(lái)平衡定位損失Lloc的權(quán)重。l代表預(yù)測(cè)框的參數(shù),g是標(biāo)記框的參數(shù)。定位損失展開(kāi)如下:

        (5)

        文中的anchor free的方法采用的是逐像素預(yù)測(cè)邊界框,將像素的位置(x,y)作為訓(xùn)練樣本,直接對(duì)每個(gè)位置的目標(biāo)邊界框進(jìn)行歸一化處理。采用計(jì)算像素位置(x,y)與真實(shí)框(x1,y1,x2,y2)(左上角與右上角位置)的偏移量(tx1,ty1,tx2,ty2)的方法。偏移量計(jì)算如式(3)。

        3 實(shí)驗(yàn)結(jié)果和分析

        3.1 無(wú)人機(jī)數(shù)據(jù)集

        無(wú)人機(jī)數(shù)據(jù)采集與標(biāo)注是進(jìn)行實(shí)驗(yàn)的基礎(chǔ)。如圖5所示,這些無(wú)人機(jī)圖像的采集主要有三個(gè)方面,一個(gè)是自己采集的被監(jiān)控?cái)z像頭捕捉到的圖像,另外兩個(gè)是從文獻(xiàn)[29-30]收集到的圖像??偣?名學(xué)生花了近兩個(gè)月的時(shí)間來(lái)標(biāo)記和重新標(biāo)記這些無(wú)人機(jī)圖像,從而創(chuàng)建了一個(gè)包括32 237張圖像的無(wú)人機(jī)數(shù)據(jù)集。從圖5中可以看出,無(wú)人機(jī)(矩形標(biāo)記框包圍的目標(biāo))的尺寸太小,人眼根本無(wú)法發(fā)現(xiàn)。因此,無(wú)人機(jī)檢測(cè)是一項(xiàng)具有挑戰(zhàn)性的任務(wù)。筆者設(shè)計(jì)的無(wú)人機(jī)數(shù)據(jù)集共有32 237張圖像,其中26 237張圖像作為訓(xùn)練集,1 000張圖像作為驗(yàn)證集,5 000張圖像作為測(cè)試集。

        (a)自己采集的圖像

        (b)文獻(xiàn)[29]中的圖像

        (c)文獻(xiàn)[30]中的圖像

        3.2 實(shí)驗(yàn)過(guò)程

        使用無(wú)人機(jī)數(shù)據(jù)集的訓(xùn)練集來(lái)訓(xùn)練網(wǎng)絡(luò)。在Py-

        torch框架下,使用一塊1080的NVIDIA GPU進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)中,使用訓(xùn)練好的FCOS網(wǎng)絡(luò)模型作為預(yù)訓(xùn)練模型來(lái)訓(xùn)練該文提出的網(wǎng)絡(luò),然后在訓(xùn)練集上微調(diào)網(wǎng)絡(luò)模型。為了定量和定性地分析比較網(wǎng)絡(luò),所有網(wǎng)絡(luò)的基本參數(shù)設(shè)置如下:迭代次數(shù)為20 epochs,動(dòng)量為0.9,權(quán)重衰減為0.000 1。網(wǎng)絡(luò)訓(xùn)練的初始學(xué)習(xí)率為10-3。當(dāng)網(wǎng)絡(luò)迭代到5 epochs、10 epochs和15 epochs時(shí),學(xué)習(xí)率變?yōu)?0-4、10-5和10-6。

        3.3 實(shí)驗(yàn)結(jié)果

        3.3.1 消融實(shí)驗(yàn)

        文中方法是基于FCOS網(wǎng)絡(luò)的,然后對(duì)基礎(chǔ)網(wǎng)絡(luò)FCOS采取了以下幾種策略:(1)基礎(chǔ)網(wǎng)絡(luò)使用中心區(qū)域思想回歸邊界框;(2)主干網(wǎng)絡(luò)由傳統(tǒng)的ResNet和ResNeXt變?yōu)镠RNet;(3)neck網(wǎng)絡(luò)也由傳統(tǒng)的FPN變?yōu)镠RFPN;(4)測(cè)試網(wǎng)絡(luò)模型時(shí),由NMS策略變?yōu)閟oft-NMS策略。為了充分說(shuō)明這幾種策略對(duì)網(wǎng)絡(luò)是有益的,該文進(jìn)行了消融實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表1和表2所示。

        可以發(fā)現(xiàn)采用soft-NMS策略后,AP提升了大約1.8個(gè)精度,AP50提升了大約0.7個(gè)精度,AP75提升了3.6個(gè)精度。對(duì)于AR的各個(gè)指標(biāo),除了ARmax=1沒(méi)有提升,其他均提升了大約5個(gè)精度。這個(gè)結(jié)果充分證明了檢測(cè)算法采用soft-NMS策略的有效性。

        對(duì)于HRNet網(wǎng)絡(luò),分別與FPN和HRFPN網(wǎng)絡(luò)組合使用,發(fā)現(xiàn)使用FPN后,網(wǎng)絡(luò)性能反而下降了,而使用HRFPN后,網(wǎng)絡(luò)性能指均有所提高。AP提升了大約2.5個(gè)精度,AP50提升了0.6個(gè)精度,AP75提升了0.6個(gè)精度,ARmax=1提升了4.8個(gè)精度,ARmax=10提升了1.1個(gè)精度,ARmax=100也提升了0.8個(gè)精度。這些充分證明了HRNet和HRFPN組合使用的有效性。

        HRNet和HRFPN組合使用后,使用中心區(qū)域思想回歸邊界框,整體檢測(cè)性能有所提升,其中5個(gè)檢測(cè)指標(biāo)有提升,只有AP50沒(méi)有提升,略微下降了一些。AP和AR這6個(gè)指標(biāo)中,AP提升了大約0.8個(gè)精度,AP50稍微下降了0.4個(gè)精度,AP75提升了6.2個(gè)精度,ARmax=1提升了4.8個(gè)精度,ARmax=10提升了1.1個(gè)精度,ARmax=100也提升了0.8個(gè)精度。這些充分證明,使用中心區(qū)域思想回歸邊界框是非常有效的。

        表1 關(guān)于AP的消融實(shí)驗(yàn)

        表2 關(guān)于AR的消融實(shí)驗(yàn)

        表3 目標(biāo)檢測(cè)算法在無(wú)人機(jī)數(shù)據(jù)集上的AP結(jié)果

        表4 目標(biāo)檢測(cè)算法在無(wú)人機(jī)數(shù)據(jù)集上的AR結(jié)果

        3.3.2 實(shí)驗(yàn)對(duì)比

        為了充分說(shuō)明文中方法的優(yōu)越性,對(duì)基于anchor的經(jīng)典目標(biāo)檢測(cè)算法以及anchor free的目標(biāo)檢測(cè)算法也在無(wú)人機(jī)數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表3和表4所示。

        基于anchor的目標(biāo)檢測(cè)方法,對(duì)經(jīng)典的兩階段目標(biāo)檢測(cè)算法Faster R-CNN、Cascade R-CNN和一階段目標(biāo)檢測(cè)算法SSD進(jìn)行了復(fù)現(xiàn)。對(duì)于anchor free的目標(biāo)檢測(cè)算法,對(duì)FSAF和FCOS進(jìn)行了復(fù)現(xiàn)。測(cè)試時(shí),這些目標(biāo)檢測(cè)算法均采用了soft-NMS策略。從表3和表4中可以發(fā)現(xiàn),文中方法的表現(xiàn)是最優(yōu)異的,僅僅是AP50的結(jié)果略低于基于ResNet-r101-FPN的FCOS算法。對(duì)于AP、AP75、ARmax=1、ARmax=10和ARmax=100,文中方法相比于對(duì)應(yīng)的第二名的算法分別提高了1.6、1.1、1.4、1.6和2.1個(gè)精度,這些結(jié)果充分證明了文中方法的優(yōu)越性。

        4 結(jié)束語(yǔ)

        提出了一種anchor free的無(wú)人機(jī)檢測(cè)方法,該方法完全避免了與anchor相關(guān)的計(jì)算和超參數(shù)。針對(duì)無(wú)人機(jī)大部分都是小目標(biāo)的情況,提出使用HRNet網(wǎng)絡(luò)作為主干網(wǎng)絡(luò)來(lái)獲得具有豐富細(xì)粒度信息的特征。相應(yīng)的,HRFPN代替?zhèn)鹘y(tǒng)的FPN來(lái)生成多層金字塔特征圖。相比較于其他基于anchor和anchor free的目標(biāo)檢測(cè)方法,該方法對(duì)于無(wú)人機(jī)檢測(cè)獲得了更好的表現(xiàn),具體表現(xiàn)為:相比較于基于anchor的目標(biāo)檢測(cè)器,該方法更加具有魯棒性,可以自適應(yīng)地預(yù)測(cè)目標(biāo)邊界框,相比較于其他的anchor free的目標(biāo)檢測(cè)器,該方法獲得了更好的精確率和召回率。另外,該方法也可以用來(lái)檢測(cè)其他小目標(biāo),而不僅僅是無(wú)人機(jī)。

        猜你喜歡
        像素點(diǎn)邊界樣本
        拓展閱讀的邊界
        用樣本估計(jì)總體復(fù)習(xí)點(diǎn)撥
        論中立的幫助行為之可罰邊界
        推動(dòng)醫(yī)改的“直銷(xiāo)樣本”
        基于canvas的前端數(shù)據(jù)加密
        基于逐像素點(diǎn)深度卷積網(wǎng)絡(luò)分割模型的上皮和間質(zhì)組織分割
        隨機(jī)微分方程的樣本Lyapunov二次型估計(jì)
        村企共贏的樣本
        基于Node-Cell結(jié)構(gòu)的HEVC幀內(nèi)編碼
        “偽翻譯”:“翻譯”之邊界行走者
        乱人伦中文字幕成人网站在线| 亚洲第一黄色免费网站| 我的极品小姨在线观看| 丝袜美腿一区在线观看| 涩涩鲁精品亚洲一区二区| 亚洲成熟丰满熟妇高潮xxxxx| 久久人人爽av亚洲精品| 在线成人一区二区| 国产一区二区三区在线观看免费| 国内久久婷婷精品人双人| 人妻爽综合网| 免费视频一区二区三区美女| 丰满人妻中文字幕一区三区| 国产成人无码av一区二区在线观看| 日日天干夜夜狠狠爱| 无码国产精品一区二区高潮| 精品欧美一区二区在线观看| 亚洲精品aⅴ无码精品丝袜足| 亚洲一区二区三区99区| 国产一区二区三区四区在线视频| 国产精品国产三级国产专播下| 国产在线 | 中文| 69久久夜色精品国产69| 国产网站视频| 中文字幕日韩精品美一区二区三区 | 久久久精品人妻一区二区三区妖精| 日韩放荡少妇无码视频| 国产网站视频| 日本特殊按摩在线观看| 精品香蕉99久久久久网站| 欧美最猛黑人xxxx黑人表情| 最新精品亚洲成a人在线观看| 日韩精品国产一区二区| 狂插美女流出白浆视频在线观看| 国产无遮挡aaa片爽爽| 国产绳艺sm调教室论坛| 欧美午夜精品久久久久免费视| 国产午夜av一区二区三区| 日本韩国三级在线观看| 三级做a全过程在线观看| 日韩精品一区二区三区在线观看 |