張靈靈,王 鵬,李曉艷,呂志剛,邸若海
1.西安工業(yè)大學(xué) 兵器科學(xué)與技術(shù)學(xué)院,西安 710021
2.西安工業(yè)大學(xué) 發(fā)展規(guī)劃處,西安 710021
3.西安工業(yè)大學(xué) 電子信息工程學(xué)院,西安 710021
隨著無人機(jī)技術(shù)的發(fā)展和低空領(lǐng)域的逐步開放,無人機(jī)已在農(nóng)林植保、海岸管理以及軍事戰(zhàn)爭等領(lǐng)域取得了較為突出的成績。由于缺少有效手段實(shí)施監(jiān)測,導(dǎo)致對無人機(jī)的監(jiān)管力度明顯滯后,并由此對國家安全和社會安全產(chǎn)生負(fù)面影響[1-3]。特別在我國的國家保密部門和軍隊(duì)涉密場所,長期有被無人機(jī)非法入侵和偵查盜取重要軍事信息的風(fēng)險存在[4]。因此,作為無人機(jī)反制與管控的重要環(huán)節(jié),對低空無人機(jī)的有效探測成為亟待解決的問題[5]。
目前,常用的無人機(jī)探測技術(shù)包括聲波探測[6]、無線電探測[7-8]和雷達(dá)探測[9-10],但是這些技術(shù)往往需要昂貴的設(shè)備和特定的環(huán)境?;跈C(jī)器視覺的方法[11-12]能夠攝像取證,成本低并且使用方便,隨著深度學(xué)習(xí)技術(shù)的發(fā)展,已逐步應(yīng)用于無人機(jī)檢測任務(wù)中[13]?;诰矸e神經(jīng)網(wǎng)絡(luò)的檢測算法可以分為兩類:雙階段目標(biāo)檢測算法和單階段目標(biāo)檢測算法。雙階段目標(biāo)檢測算法將檢測問題劃分為產(chǎn)生包含目標(biāo)大致位置信息的候選區(qū)域和對候選區(qū)域進(jìn)行分類、位置精修這兩個階段,典型代表有R-CNN(region-based convolutional neural networks)[14]、Faster R-CNN[15]等。單階段目標(biāo)檢測算法不用產(chǎn)生候選區(qū)域,可以直接從圖片中獲得目標(biāo)的檢測結(jié)果,比較典型的算法有YOLO(you only look once)系列[16-17]和SSD(single shot multibox detector)[18]。對于無人機(jī)的檢測,往往需要在提高檢測精度的同時兼顧檢測速度,因此很多學(xué)者選擇SSD 算法及其改進(jìn)來完成低空無人機(jī)目標(biāo)的檢測任務(wù)。Chen 等人[19]利用SSD 算法融合雷達(dá)、RGB相機(jī)等多源信息對入侵的無人機(jī)進(jìn)行檢測,但只能識別常規(guī)大小的無人機(jī)目標(biāo)。Liu等人[20]提出基于SSD算法的無人機(jī)識別方法,將無人機(jī)目標(biāo)的檢測和分類分開實(shí)現(xiàn),但存在識別準(zhǔn)確率低、定位不準(zhǔn)確等問題。Zhou 等人[21]將SSD 算法主干網(wǎng)絡(luò)替換為MobileNetv2,并引入特征金字塔網(wǎng)絡(luò)來提高無人機(jī)目標(biāo)的檢測精度,但對復(fù)雜場景下的無人機(jī)目標(biāo)檢測效果不佳,魯棒性較差。Wang等人[22]通過削剪骨干網(wǎng)絡(luò)的卷積通道數(shù)目提高SSD算法的檢測速度,并引入特征增強(qiáng)模塊提高檢測性能,檢測速度有較大提升,但檢測精度較低。
綜上,針對現(xiàn)有算法對復(fù)雜背景下的無人機(jī)目標(biāo)檢測效果不佳、小目標(biāo)定位不準(zhǔn)確等問題,現(xiàn)基于SSD 算法進(jìn)行改進(jìn),引入一種多尺度特征融合模塊,豐富特征圖多尺度語義信息,并在網(wǎng)絡(luò)特征圖輸出處引入輕量級的高效通道注意力機(jī)制,在不增加計(jì)算量的同時使網(wǎng)絡(luò)優(yōu)先將注意力放在有用信息上,并抑制復(fù)雜背景等無用信息,最后優(yōu)化默認(rèn)框參數(shù),進(jìn)一步提升小目標(biāo)檢測精度。
SSD是典型的一階段檢測算法,整體結(jié)構(gòu)包含了基礎(chǔ)網(wǎng)絡(luò)、輔助卷積層和預(yù)測卷積層。SSD 算法結(jié)合了YOLO 模型的回歸思想和Faster R-CNN 的錨框機(jī)制思想,確保檢測精度和推斷速度。同時,也采用了特征金字塔網(wǎng)絡(luò)“分而治之”的思想,即分別在不同尺度的特征圖上進(jìn)行預(yù)測,利用較高分辨率的淺層特征圖來檢測小物體,而利用較低分辨率的深層特征圖檢測大物體,其算法框架如圖1所示。
圖1 SSD算法框架Fig.1 SSD algorithm framework
SSD 采用VGG16 作為骨干網(wǎng)絡(luò),并將其FC6 和FC7轉(zhuǎn)化為卷積層,去掉所有的Dropout層和FC8層,同時 增 加Conv8、Conv9、Conv10 和Conv11 這4 個 卷 積層。使用改進(jìn)后的模型對輸入圖片進(jìn)行特征提取,并生成多個特征圖,分別為Conv4_3、FC7、Conv8_2、Conv9_2、Conv10_2 和Conv11_2,大小分別為38×38、19×19、10×10、5×5、3×3 和1×1。網(wǎng)絡(luò)在這些特征圖上的每個點(diǎn)生成長寬比例不同的錨框,適應(yīng)多尺度檢測,每層特征圖上產(chǎn)生n×n個中心點(diǎn),每個中心點(diǎn)產(chǎn)生k個默認(rèn)框,六層特征圖中每層的每個中心點(diǎn)產(chǎn)生的k值分別為4、6、6、6、4、4。其中Conv4_3 層的默認(rèn)框大小為30,其他先驗(yàn)框的尺度遵守一個線性遞增規(guī)則:
其中,m為特征圖個數(shù),smin和smax通常取值0.2與0.9,分別代表最底層特征圖以及最高層特征圖占原始圖像比例,候選框的長寬比ar∈{1,2,3,1/2,1/3},則先驗(yàn)框的長和寬可由下式表達(dá):
默認(rèn)框中心點(diǎn)的位置可由式(4)計(jì)算:
其中,|fk|表示k個特征的尺寸。
為改善SSD 算法對復(fù)雜背景下小目標(biāo)檢測困難等問題,在原始網(wǎng)絡(luò)中融入多尺度特征融合模塊和注意力機(jī)制模塊,為使先驗(yàn)框和感受野有效匹配,對先驗(yàn)框的大小和數(shù)量進(jìn)行了優(yōu)化。首先,將深層特征和淺層特征相融合,使每層特征圖之間具有上下文信息。其次,將融合后的特征圖輸入到注意力機(jī)制模塊中,增強(qiáng)特征圖對關(guān)鍵信息的提取能力。最后,針對無人機(jī)數(shù)據(jù)集尺度偏小問題,對默認(rèn)框的尺度和數(shù)量進(jìn)行優(yōu)化,網(wǎng)絡(luò)結(jié)構(gòu)如圖2 所示,其中MSFFM(multi-scale feature fusion module)為提出的一種多尺度特征融合模塊,ECA(efficient channel attention)為高效通道注意力模塊。
SSD 模型中Conv4_3 層至Conv7 層這些較淺層的特征圖分辨率高,包含豐富的細(xì)節(jié)紋理信息,適合檢測小目標(biāo);Conv8_2 層至Conv11_2 層這些深層的特征圖分辨率低,但是具備充足的語義信息,適合檢測大目標(biāo),但是網(wǎng)絡(luò)深層特征的語義信息與底層特征的細(xì)節(jié)紋理信息之間并未得到充分利用。特征金字塔網(wǎng)絡(luò)就是為了增強(qiáng)淺層特征和深層特征之間的聯(lián)系,它從頂層的每一層都進(jìn)行上采樣,獲取更準(zhǔn)確的像素位置信息。借鑒特征金字塔網(wǎng)絡(luò)、FSSD[23]、FA-SSD[24]和受文獻(xiàn)[25]的啟發(fā),提出一種多尺度特征融合模塊(MSFFM),可以表述為式(5):
式中,Xi為將要融合的源特征圖,Ti表示融合前的轉(zhuǎn)換函數(shù),Φf表示特征融合函數(shù)。本算法獲取三個特征圖之間的互補(bǔ)信息進(jìn)行深層次融合,從而來緩解不同尺度特征圖的信息差異帶來的融合負(fù)面影響。具體的融合過程為:選取X2作為優(yōu)化層時,X1、X2和X3特征圖先經(jīng)過1×1 卷積進(jìn)行通道降維,X2特征圖的通道降維至原通道數(shù)目的1/2,X1和X3的通道數(shù)目降維至X2原通道數(shù)目的1/4,再分別對X1和X3進(jìn)行擴(kuò)張卷積和雙線性插值,使X1和X3的特征圖尺寸變?yōu)楹蚗2一樣。其次,對修改后的X1、X2和X3進(jìn)行Φf融合操作,采用concat 融合方式,直接對原始特征進(jìn)行串聯(lián),讓網(wǎng)絡(luò)去學(xué)習(xí)融合特征,不會造成信息的損失。改進(jìn)的特征圖經(jīng)過BN 層和ReLU 激活函數(shù),激活函數(shù)有利于神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)到更多非線性關(guān)系,融合之后還會再經(jīng)過3×3的卷積,目的是消除上采樣的混疊效應(yīng)。最后將其經(jīng)過非局部通道注意力模塊來挖掘網(wǎng)絡(luò)通道有用的上下文信息,抑制噪音等無效信息,并送入非極大抑制網(wǎng)絡(luò)進(jìn)行檢測輸出。
在原SSD 模型特征層的基礎(chǔ)上加入Conv3_3 層和Conv4_3 層這兩個淺層特征,其特征圖尺寸大,小目標(biāo)特征提取更充分。Conv10_2 和Conv11_2 層特征圖所包含信息少,融合之后對目標(biāo)定位與分類精度并沒有什么提升,反而使模型的訓(xùn)練與檢測速度變慢。Conv4_3層負(fù)責(zé)檢測小目標(biāo),考慮到小目標(biāo)需要更多的表觀特征信息,融合具有更大特征圖Conv3_3層和具有一定語義信息的Conv7 層??紤]融合應(yīng)盡量減少不同尺度特征圖信息差異帶來的負(fù)面影響和融合后的特征圖盡可能包含高層信息和低層信息,當(dāng)Conv7 層作為優(yōu)化層時,融合包含較多紋理信息的Conv4_3 層和它的相鄰層Conv8_2 層;當(dāng)Conv8_2 層作為優(yōu)化層時,融合包含較多紋理信息的Conv5_3 層和它的相鄰層Conv9_2 層。結(jié)合圖2、圖3 所示,當(dāng)選取Conv8_2 作為優(yōu)化層時,對于10×10×512 的特征圖Conv8_2 使用1×1 卷積降維成256 通道,對5×5×256 的特征圖Conv9_2 采用雙線性插值上采樣將特征圖變?yōu)?0×10大小,并使用1×1卷積將通道數(shù)目降維為128,對19×19×512 的特征圖Conv5_3進(jìn)行擴(kuò)張卷積,并將通道數(shù)目變?yōu)?28,然后將三層特征圖分別經(jīng)過BN 層和ReLU 激活函數(shù)再進(jìn)行concat 融合操作。其他兩個融合模塊同理。
圖2 本文算法整體框架Fig.2 Overall framework of proposed algorithm
圖3 多尺度特征融合模塊Fig.3 Multi-scale feature fusion module
圖4為原SSD算法與改進(jìn)SSD算法在Conv4_3層、Conv7層和Conv8_2層輸出的特征對比圖。圖4(b)(c)(d)為原算法輸出的特征熱力圖,圖4(e)(f)(g)為改進(jìn)算法經(jīng)過多尺度特征融合模塊輸出的特征熱力圖。顯然圖4(e)相對于圖4(b)更加清晰,關(guān)注了更多的細(xì)節(jié)信息,適合檢測小目標(biāo)。圖4(f)相比于圖4(c)能更加匹配無人機(jī)目標(biāo),較小的目標(biāo)仍高亮顯示。圖4(g)相比于圖4(d)具有更強(qiáng)的語義信息,無人機(jī)的特征信息更為豐富,經(jīng)過多次下采樣之后網(wǎng)絡(luò)仍可以注意到小目標(biāo)。結(jié)果表明本文提出的多尺度特征融合模塊更加適合低空無人機(jī)目標(biāo)的檢測。
圖4 多尺度特征融合前后特征圖對比Fig.4 Comparison of feature images before and after multi-scale feature fusion
在進(jìn)行多尺度特征融合時只是將特征圖在通道維度上進(jìn)行拼接,不能反映不同通道間特征的重要性和相關(guān)性[26]。為了能使網(wǎng)絡(luò)自動學(xué)習(xí)特征圖通道之間的重要性和相關(guān)性,引入了一種輕量級高效注意力機(jī)制(ECA-Net)[27],在不增加網(wǎng)絡(luò)計(jì)算量的同時使網(wǎng)絡(luò)增強(qiáng)有用信息,去除冗余特征。該網(wǎng)絡(luò)是對裁剪-權(quán)重分配網(wǎng)絡(luò)(squeeze-and-excitation networks,SE-Net)[28]提出的改進(jìn)網(wǎng)絡(luò)。SE-Net涉及降維,降維會對通道注意預(yù)測帶來副作用。因此ECA-Net 提出了一種不降維的局部跨信道交互策略和核大小自適應(yīng)選擇方法,同時以極其輕量級的方式獲取跨通道的交互信息。該網(wǎng)絡(luò)首先對輸入特征圖的每個通道進(jìn)行池化操作,獲得全局感受野,然后直接進(jìn)行局部跨通道連接,即通過考慮由池化操作得到的每個通道及其k個鄰近通道來進(jìn)行一維卷積操作,k的取值通過通道數(shù)C自適應(yīng)確定:
其中,|· |odd表示取離結(jié)果近的奇數(shù),γ和b 表示常量,分別取值為2和1。ECA-Net網(wǎng)絡(luò)模型的結(jié)構(gòu)圖如圖5所示。
圖5 ECA-Net注意力模塊Fig.5 ECA-Net attention module
使用Grad-CAM[29]技術(shù)來直觀地展示模型中引入輕量化注意力模塊的有效性。熱力圖顏色區(qū)域越深說明該區(qū)域?qū)︻悇e識別的影響越大。圖6(a)為原始圖片,圖6(b)為普通卷積熱力圖輸出,圖6(c)為ECA-Net 熱力圖。觀察第一列可以看出注意力機(jī)制使模型也關(guān)注到無人機(jī)的旋翼信息,第二列可以看出模型關(guān)注無人機(jī)的整體信息,有利于模型對無人機(jī)目標(biāo)的檢測,第三列可以看出,模型注意到了小目標(biāo)。從這些結(jié)果可以看出引入ECA-Net 使模型更加注意到了對檢測有用的細(xì)節(jié)信息,而抑制忽略背景等這些無用的信息。
圖6 熱圖可視化Fig.6 Visualization of heat maps
SSD 模型利用每一層特征圖上不同尺寸和數(shù)量的先驗(yàn)框?qū)δ繕?biāo)進(jìn)行檢測。每層特征圖上的先驗(yàn)框和數(shù)量如表1所示。錨框的尺寸和長寬比是固定的,因此檢測器在處理形變較大的候選對象時比較困難,尤其是對于小目標(biāo)。原SSD 模型設(shè)定的默認(rèn)框?qū)τ诘涂諢o人機(jī)檢測任務(wù)的感受野區(qū)域明顯偏大且?guī)韽?fù)雜背景的干擾信息,導(dǎo)致檢測精度降低。圖7(a)為無人機(jī)數(shù)據(jù)集真實(shí)框的寬高比,可以看到大部分集中在0.7左右,但也有部分在0~0.5之間,少部分在1.0~1.5之間。圖7(b)為目標(biāo)真實(shí)框在原圖的大小比例,可以看到大部分框只占到了原圖的0.001~0.075,甚至更小,因此基本都是很小的目標(biāo)。針對數(shù)據(jù)集的特點(diǎn),將原始SSD網(wǎng)絡(luò)的smin設(shè)置為0.15,此時最低層先驗(yàn)框的大小為22.5×22.5,基本上可以覆蓋輸入圖像中的各種形狀和大小的目標(biāo)。為了保證改進(jìn)網(wǎng)絡(luò)Step 和原網(wǎng)絡(luò)一樣,將smax設(shè)置為0.87,并將用于檢測小目標(biāo)的Conv4_3 層的特征映射中添加至6個默認(rèn)框,提高檢測精度的同時避免小占比的目標(biāo)被漏檢。通過重新設(shè)置默認(rèn)框的數(shù)量和大小,可以有效改善漏檢和避免低空無人機(jī)因尺度小而無法與默認(rèn)框匹配的問題。
表1 每層特征圖上的先驗(yàn)框和數(shù)量Table 1 Prior boxes and numbers on layer of feature maps
圖7 數(shù)據(jù)集分布可視化Fig.7 Visualization of data set distribution
為驗(yàn)證改進(jìn)SSD 模型在低空無人機(jī)檢測任務(wù)中的有效性,在相同運(yùn)行環(huán)境及無人機(jī)數(shù)據(jù)集的前提下,將原SSD 模型和改進(jìn)SSD 模型進(jìn)行對比實(shí)驗(yàn)。本實(shí)驗(yàn)基于Windows10 操作系統(tǒng),CPU 為AMD Ryzen 5 5600X 6-Core Processor,內(nèi)存為16 GB;GPU為NVIDIA GeForce RTX 2060。優(yōu)化算法采用SGD,動量因子參數(shù)為0.9,批處理大小為8,初始學(xué)習(xí)率為0.000 1,衰減系數(shù)為0.1,最大迭代次數(shù)為120 000次。
為了評估改進(jìn)后的算法檢測性能,自行在網(wǎng)上搜集不同場景下無人機(jī)圖片共4 688張,如圖8所示,按照7∶1∶2的比例劃分成訓(xùn)練集、驗(yàn)證集和測試集。無人機(jī)數(shù)據(jù)集按照Pascal VOC2012的格式建立,大多數(shù)都是小目標(biāo)。
圖8 數(shù)據(jù)集部分圖片及標(biāo)注Fig.8 Partial images and annotations of data set
檢測速度的評價指標(biāo)為FPS(frame per second),定義為網(wǎng)絡(luò)每秒處理圖像的幀數(shù)??梢愿鶕?jù)準(zhǔn)確率(Precision)和召回率(Recall)制成一條曲線,在0到1范圍內(nèi)繪制的曲線與坐標(biāo)間的面積即為精度(AP),AP=,準(zhǔn)確率和召回率的定義如下[30]:
式中,TP為正樣本中的正例,F(xiàn)P為負(fù)樣本中的正例,F(xiàn)N為負(fù)樣本中的負(fù)例。
3.3.1 與其他算法對比
為了評估改進(jìn)SSD算法性能,選取幾種典型目標(biāo)檢測算法進(jìn)行對比。為保證結(jié)果的公平性,所有模型均在本實(shí)驗(yàn)平臺進(jìn)行訓(xùn)練,所有結(jié)果記錄在表2中。從檢測精度上看,改進(jìn)SSD 算法的檢測精度均優(yōu)于其他模型。另外將輸入圖像放大能夠顯著提高小目標(biāo)的檢測效果,F(xiàn)aster R-CNN、YOLOv3、CenterNet 和DSSD 輸入圖像尺寸遠(yuǎn)大于SSD,但是改進(jìn)SSD算法相對于這些大尺寸輸入圖像模型的檢測效果更好,AP 分別提高了3.40 個百分點(diǎn)、7.85 個百分點(diǎn)、4.64 個百分點(diǎn)和2.61 個百分點(diǎn)。其次,CenterNet和DSSD的骨干網(wǎng)絡(luò)采用更深層次的ResNet,相比于VGG16具有更強(qiáng)的特征表達(dá)能力,但CenterNet 和DSSD 模型并沒有改進(jìn)SSD 算法更適合無人機(jī)數(shù)據(jù)集。與采用輕量級的特征融合模塊FSSD 相比,AP 提升了2.15 個百分點(diǎn)。從推斷速度上看,改進(jìn)SSD算法推斷速度略有降低,但也基本符合實(shí)時測試的要求。實(shí)驗(yàn)結(jié)果表明,改進(jìn)后算法能夠在實(shí)時測試的基礎(chǔ)上有效地提高復(fù)雜背景下無人機(jī)目標(biāo)檢測的準(zhǔn)確率,特別是對小目標(biāo)物體的檢測更具優(yōu)勢。
表2 各算法在無人機(jī)數(shù)據(jù)集的檢測精度Table 2 Detection accuracy of each algorithm in UAV data set
圖9為IOU=0.5(intersection over union)時各目標(biāo)檢測算法的PR 曲線。從圖中的PR 曲線可以直觀看出,本文所提算法的Precision和Recall兩個性能指標(biāo)均優(yōu)于其他檢測模型,即改進(jìn)SSD算法對低空無人機(jī)目標(biāo)位置的回歸能力優(yōu)于其他模型。
圖9 各算法的PR曲線(IOU=0.5)Fig.9 PR curve of each algorithm(IOU=0.5)
3.3.2 消融實(shí)驗(yàn)
為了進(jìn)一步驗(yàn)證本文模型設(shè)計(jì)策略的有效性,在無人機(jī)數(shù)據(jù)集上運(yùn)行具有不同設(shè)置的模型,進(jìn)行了消融實(shí)驗(yàn),此時最大迭代次數(shù)為120 000 次。實(shí)驗(yàn)內(nèi)容包括MSFFM 多尺度特征融合模塊的使用與否,ECA-Net 注意力機(jī)制的使用與否,SE-Net 注意力機(jī)制的使用與否,anchor 是否優(yōu)化,F(xiàn)usion method 特征融合方法的選擇,有concat和add兩種融合方式,以及ECA-Net注意力機(jī)制鄰近通道k的大小選擇,所有的實(shí)驗(yàn)數(shù)據(jù)記錄在表3中。
表3 各獨(dú)立模塊對無人機(jī)目標(biāo)檢測的影響Table 3 Influence of each independent module on UAV target detection
表格中第一行為原SSD模型的檢測精度為76.26%,對比表格中第一行和第二行、第三行和第五行、第四行和第六行、第七行和第九行的數(shù)據(jù)可以發(fā)現(xiàn),在SSD 算法的基礎(chǔ)上引入多尺度特征融合模塊確實(shí)帶來了精度的提升,分別提升了3.35 個百分點(diǎn)、3.63 個百分點(diǎn)、2.21個百分點(diǎn)和2.61個百分點(diǎn),證明了該多尺度特征融合模塊使融合后新的特征圖具備小目標(biāo)的上下文信息。其中同時添加多尺度特征融合模塊和注意力模塊提升效果最為明顯,因?yàn)槿诤现皇峭ǖ谰S度上的拼接并不能反映特征通道的重要性,添加注意力模塊可以學(xué)習(xí)不同特征通道間的權(quán)重分配,使模型更加關(guān)注有用信息。對比第一行和第四行、第二行和第六行、第五行和第九行、第三行和第七行可以發(fā)現(xiàn),改進(jìn)anchor可以顯著提升模型的精度,分別提升了4.58 個百分點(diǎn)、3.44 個百分點(diǎn)、3.62個百分點(diǎn)和4.64個百分點(diǎn),原因在于本實(shí)驗(yàn)所用數(shù)據(jù)集都是很小的目標(biāo),改進(jìn)anchor可以改變感受野的大小使其與目標(biāo)大小更匹配并且抑制背景信息的干擾。對比第一行和第三行、第二行和第五行、第四行和第七行、第六行和第九行,模型中加入ECA-Net 注意力機(jī)制后,分別提升了0.56 個百分點(diǎn)、0.84 個百分點(diǎn)、0.62 個百分點(diǎn)和1.02個百分點(diǎn),說明ECA-Net注意力機(jī)制能幫助模型增強(qiáng)有用特征,去除冗余特征,使網(wǎng)絡(luò)更加關(guān)注有利于檢測的有用信息。其中模型添加多尺度特征融合模塊和改進(jìn)anchor 時,注意力機(jī)制效果最好,這是因?yàn)槎喑叨忍卣魅诤夏K將淺層信息和語義信息得到了充分的融合,再加上優(yōu)化anchor使得有效感受野匹配利于信息的提取。由第九、第十和第十一行可以看出,隨著鄰近通道數(shù)目的增加,模型的精度有所降低,說明過多的通道之間的交互確實(shí)是低效且不必要的,本模型選取k值為3 可以取得最優(yōu)結(jié)果。對比第八行和第九行可以發(fā)現(xiàn),多尺度特征融合模塊選取concat融合方式的精度高于add融合方式,這是因?yàn)閏oncat融合方式是特征圖信息的串聯(lián),不會造成信息的損失。對比第九行和第十二行可以發(fā)現(xiàn),相同實(shí)驗(yàn)環(huán)境下模型使用ECA-Net的檢測精度比使用SE-Net 的檢測精度高,說明ECA-Net 的性能更優(yōu),更適合本文所提算法。
訓(xùn)練過程中的原模型損失和改進(jìn)模型損失如圖10(a)所示,橫軸表示迭代次數(shù),縱軸表示損失值的大小。在無人機(jī)數(shù)據(jù)集上經(jīng)過120 000 次訓(xùn)練,損失值和精度值達(dá)到穩(wěn)定狀態(tài)。圖中Loss 值為置信損失和定位損失兩部分的帶權(quán)加和。從圖10(a)可以看出,改進(jìn)模型損失比原模型損失低1~2 個百分點(diǎn),模型收斂在損失值1左右。原模型在迭代90 000 次之后損失函數(shù)值基本趨于平穩(wěn),而改進(jìn)網(wǎng)絡(luò)在迭代80 000次之后損失函數(shù)值趨于平穩(wěn),明顯比原模型收斂更快。在訓(xùn)練過程中,原模型精度、改進(jìn)模型精度和迭代次數(shù)之間的趨勢變化對比如圖10(b)所示,可以看到隨著迭代步數(shù)的更新,整體識別正確率最終達(dá)到80%以上。改進(jìn)模型在保持一定計(jì)算效率的情況下,檢測精度大幅提升,收斂速度最快,收斂值最優(yōu)。
圖10 訓(xùn)練過程模型變化Fig.10 Model changes during training
圖11為IOU=0.5 時目標(biāo)檢測算法的PR 曲線,從圖中可以直觀看出,改進(jìn)SSD 算法在Precision和Recall兩個性能指標(biāo)上均優(yōu)于原SSD算法,即改進(jìn)算法對目標(biāo)位置的回歸能力優(yōu)于原模型,證明了該模型的有效性。
圖11 模型PR曲線(IOU=0.5)Fig.11 Model PR curve(IOU=0.5)
3.4.1 不同場景下檢測結(jié)果
圖12給出了8種場景下的檢測實(shí)例,通過直觀地對比可以看出,改進(jìn)后的算法對各種場景下無人機(jī)目標(biāo)檢測結(jié)果和置信度都優(yōu)于原模型。其中圖12(a)是在云背景下,無人機(jī)特別小且待檢測目標(biāo)和背景相近。圖12(b)是在建筑背景下,有貨架和樓宇等干擾物,背景較為復(fù)雜。圖12(c)為無人機(jī)飛行在山間,背景噪聲很大。圖12(d)為無人機(jī)飛在海平面上,背景較為干凈但光線弱。圖12(e)為傍晚情況下,待檢測目標(biāo)不明顯。圖12(f)為無人機(jī)飛行在路燈旁,存在部分遮擋情況。圖12(g)為強(qiáng)光背景下,檢測目標(biāo)極不明顯。圖12(h)為亮度不均情況下,無人機(jī)飛行在亮度暗且目標(biāo)和背景相近區(qū)域。這些復(fù)雜場景下無人機(jī)均能被檢測出來,且不存在漏檢誤檢情況,證明了該算法的有效性。
圖12 不同場景下的目標(biāo)檢測結(jié)果Fig.12 Target detection results in different scenarios
3.4.2 與改進(jìn)算法測試結(jié)果對比
為了更直觀地顯示本文算法的有效性,選取測試數(shù)據(jù)集中的圖片對原算法和改進(jìn)后算法的檢測效果進(jìn)行對比,結(jié)果如圖13所示。圖(a)為原始SSD算法檢測結(jié)果,圖(b)為改進(jìn)的SSD 算法檢測結(jié)果。通過圖中第一列的對比可以看出,當(dāng)目標(biāo)與背景顏色很接近的時候,改進(jìn)的算法可以精準(zhǔn)檢測到目標(biāo),并且置信度很高。圖中第二列中紅色橢圓為錯誤檢測目標(biāo)示例,原算法將樹林中的飛鳥識別為無人機(jī),而改進(jìn)的算法能準(zhǔn)確識別出來。通過圖中第三列、第四列的對比可以看出,原算法存在漏檢情況,由于改進(jìn)的算法在Conv4_3層設(shè)置了更多的先驗(yàn)框,有效避免了漏檢情況的發(fā)生。綜上,改進(jìn)后的算法對小目標(biāo)的檢測效果更為顯著。
圖13 檢測結(jié)果對比Fig.13 Comparison of detection results
為解決不同角度下無人機(jī)所處背景復(fù)雜多變、尺度偏小等問題,通過引入多尺度特征融合模塊,添加注意力機(jī)制和優(yōu)化先驗(yàn)框等措施,提出了一種改進(jìn)的低空無人機(jī)SSD 檢測算法。改進(jìn)后的SSD 算法在自制無人機(jī)數(shù)據(jù)集上進(jìn)行訓(xùn)練和驗(yàn)證,實(shí)驗(yàn)結(jié)果表明,算法平均精度由原來的76.26%提升到84.07%,且對不同場景下的無人機(jī)目標(biāo)均有比較好的檢測結(jié)果,充分證明了方法的有效性。對比其他幾種經(jīng)典的目標(biāo)檢測算法,改進(jìn)后模型在無人機(jī)目標(biāo)檢測任務(wù)中具有更高的綜合性能。在下一步的研究中,將對數(shù)據(jù)集進(jìn)行擴(kuò)增獲取更多類別的無人機(jī),減少網(wǎng)絡(luò)的計(jì)算量提高模型的檢測速度。