亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)YOLOv5的復(fù)雜背景紅外弱小目標(biāo)檢測算法

        2022-05-23 02:22:28李連鵬褚昕悅
        紅外技術(shù) 2022年5期
        關(guān)鍵詞:弱小紅外背景

        代 牮,趙 旭,李連鵬,劉 文,褚昕悅

        基于改進(jìn)YOLOv5的復(fù)雜背景紅外弱小目標(biāo)檢測算法

        代 牮,趙 旭,李連鵬,劉 文,褚昕悅

        (北京信息科技大學(xué) 高動態(tài)導(dǎo)航技術(shù)北京市重點實驗室,北京 100192)

        針對傳統(tǒng)算法依賴于對紅外目標(biāo)與環(huán)境背景的精確分離和信息提取,難以滿足復(fù)雜背景和噪聲等干擾因素下的檢測需求。論文提出一種基于改進(jìn)YOLOv5(You Only Look Once)的復(fù)雜背景紅外弱小目標(biāo)檢測算法。該算法在YOLOv5基礎(chǔ)上,添加注意力機(jī)制提高算法的特征提取能力和檢測效率,同時改進(jìn)原YOLOv5目標(biāo)檢測網(wǎng)絡(luò)的損失函數(shù)和預(yù)測框的篩選方式提高算法對紅外弱小目標(biāo)檢測的準(zhǔn)確率。實驗選取了來自不同復(fù)雜背景的7組紅外弱小目標(biāo)數(shù)據(jù)集,將這些圖像數(shù)據(jù)集進(jìn)行標(biāo)注并訓(xùn)練,得到紅外弱小目標(biāo)檢測模型,然后從模型訓(xùn)練結(jié)果和目標(biāo)檢測結(jié)果的角度評估算法和模型的正確性。實驗結(jié)果表明:改進(jìn)的YOLOv5算法訓(xùn)練出來的模型,檢測準(zhǔn)確性和檢測速度對比實驗列出的幾種目標(biāo)檢測算法均有明顯的提升,平均精度均值(mean Average Precision,mAP)可達(dá)99.6%以上,在不同復(fù)雜背景下均可有效檢測出紅外弱小目標(biāo),且漏警率、虛警率低。

        紅外弱小目標(biāo);復(fù)雜背景;YOLOv5;注意力機(jī)制;損失函數(shù)

        0 引言

        在目標(biāo)檢測領(lǐng)域中,紅外弱小目標(biāo)檢測一直都是一個重要的研究熱點。紅外探測系統(tǒng)具有隱蔽性能好、靈敏度高、探測作用距離遠(yuǎn)、穿透大氣能力強(qiáng)、工作環(huán)境適應(yīng)性強(qiáng)等優(yōu)點。紅外弱小目標(biāo)的檢測作為紅外探測系統(tǒng)的一項關(guān)鍵技術(shù)在軍事預(yù)警、紅外制導(dǎo)、航空航天、海事搜救以及民用安全等領(lǐng)域均具有重要的研究價值[1-4]。目前針對紅外弱小目標(biāo)檢測的方法大致分為3類:空間域的方法、變換域的方法、神經(jīng)網(wǎng)絡(luò)或深度學(xué)習(xí)的方法[5]。

        基于空間域的方法通過對圖像進(jìn)行濾波處理,實現(xiàn)背景噪聲的抑制。常見的算法有最大均值濾波、最大中值濾波、形態(tài)學(xué)濾波[6]、匹配濾波等。汪列兵等在2020年提出一種基于最大中值濾波與Hough變換的檢測方法[7];韓金輝等在2021年提出一種基于局部對比度機(jī)制的匹配濾波方法[8]。此類基于空間域的方法工程實現(xiàn)簡單,但是在復(fù)雜背景下難以達(dá)到檢測目標(biāo)的需求?;谧儞Q域的方法可以提高目標(biāo)信噪比,有效保留目標(biāo)圖像中的邊緣等信息。常見的算法有高通濾波、小波變換[9]等。馮祥等在2020年提出一種基于小波包變換的檢測方法[10];李德新等在2021年提出一種利用DFT(Discrete Fourier Transform)變換并聯(lián)合高斯濾波計算紅外圖像差異直方圖的方法[11]。此類基于變換域的方法在平緩背景下目標(biāo)檢測效果較好,但在背景起伏比較大的復(fù)雜背景下檢測目標(biāo)效果差,難以達(dá)到檢測實際需求。

        然而,以上基于空間域和變換域的目標(biāo)檢測方法往往通過人工設(shè)計提取特征,需要結(jié)合大量的專業(yè)知識和經(jīng)驗,難以一次做到全面考慮。其次,不同的特征提取算法往往只注重某一方面的信息,同時缺乏高層語義信息,這對簡單背景目標(biāo)場景下的目標(biāo)檢測能發(fā)揮一定的作用,但當(dāng)紅外弱小目標(biāo)處于復(fù)雜背景下時,以上檢測方法效果并不理想。盡管可以通過不同的特征提取算法進(jìn)行約束構(gòu)建組合特征,一定程度上能夠提升對目標(biāo)特征的表達(dá)能力,但這會導(dǎo)致系統(tǒng)的計算量增大。

        而基于神經(jīng)網(wǎng)絡(luò)或深度學(xué)習(xí)的方法擁有強(qiáng)大特征提取能力,且無需大量的人為特征提取的設(shè)計,能有效解決人工設(shè)計提取特征帶來的局限性,提高目標(biāo)檢測性能,達(dá)到較高的檢測準(zhǔn)確率。當(dāng)前主流用在復(fù)雜背景下紅外弱小目標(biāo)檢測的神經(jīng)網(wǎng)絡(luò)方法分為兩類。一類是雙階段目標(biāo)檢測算法:主要包括由Girshick等人在2014年提出的R-CNN(Region-CNN)算法[12];Girshick R在2015年提出的Fast R-CNN算法[13];以及2016年由Ren S提出的Faster R-CNN算法[14]。雙階段目標(biāo)檢測算法是基于區(qū)域候選的目標(biāo)檢測方法,分為候選區(qū)域預(yù)測和候選區(qū)域鑒別兩個部分,這大大增加了目標(biāo)檢測的準(zhǔn)確率,但帶來的問題是計算量過大,導(dǎo)致其實時性差。另一類是單階段目標(biāo)檢測算法:主要包括由Redmon等在2016年提出的YOLO算法,能夠?qū)⒛繕?biāo)檢測的分類和定位用一個神經(jīng)網(wǎng)絡(luò)實現(xiàn)[15]。Liu W等在2016年提出的SSD算法[16],其增加的多尺度特征提取一定程度上解決了YOLO算法對小目標(biāo)檢測不敏感的問題。而經(jīng)過不斷的發(fā)展與改進(jìn),2020年YOLOv5算法被提出,該算法不僅繼承以前系列算法的優(yōu)勢,同時極大簡化了模型,在保證高準(zhǔn)確率的同時提高檢測速度,引領(lǐng)著目標(biāo)檢測領(lǐng)域潮流。針對紅外弱小目標(biāo)的檢測需要較高檢測準(zhǔn)確率和檢測速度的實際情況,本文在YOLOv5算法上改進(jìn),并最終從模型訓(xùn)練結(jié)果和目標(biāo)檢測結(jié)果的角度評估算法和模型的正確性。

        1 YOLOv5網(wǎng)絡(luò)模型介紹

        YOLOv5網(wǎng)絡(luò)模型主要分為以下4個模塊:輸入端Input、主干網(wǎng)絡(luò)Backbone、Neck網(wǎng)絡(luò)和預(yù)測端Prediction[17]。輸入端Input包括Mosaic數(shù)據(jù)增強(qiáng)、圖片尺寸縮放和自適應(yīng)錨框計算[17]。主干網(wǎng)絡(luò)Backbone包括Focus處理、CBL處理、CSP結(jié)構(gòu)和SPP空間金字塔池化等。具體如圖1所示。

        圖1 YOLOv5網(wǎng)絡(luò)模型

        1.1 輸入端

        1)Mosaic數(shù)據(jù)增強(qiáng)

        Mosaic數(shù)據(jù)增強(qiáng)針對訓(xùn)練集的數(shù)據(jù)進(jìn)行處理,隨機(jī)選取4張訓(xùn)練集的圖片進(jìn)行隨機(jī)縮放、隨機(jī)排布以及隨機(jī)裁剪,最后進(jìn)行圖像的拼接[16]。以此豐富訓(xùn)練集數(shù)據(jù),加強(qiáng)算法泛化能力,適用于本文紅外弱小目標(biāo)的檢測。

        2)圖片尺寸縮放

        YOLO算法都需要將輸入圖像尺寸變換成固定大小。而YOLOv5算法自適應(yīng)地對圖像兩端添加最少的黑邊,以此將輸入圖像的尺寸變換成固定的大小,再送入神經(jīng)網(wǎng)絡(luò)模型中訓(xùn)練。這種處理方法能有效解決填充過多導(dǎo)致圖像信息冗余,影響推理速度的問題。

        3)自適應(yīng)錨框計算

        在神經(jīng)網(wǎng)絡(luò)開始訓(xùn)練前,需要設(shè)定初始的錨框。YOLOv5算法自適應(yīng)地設(shè)定初始錨框,在此基礎(chǔ)上輸出預(yù)測框,并與真實框進(jìn)行比較,根據(jù)兩者差值進(jìn)行反向更新,進(jìn)而調(diào)整網(wǎng)絡(luò)參數(shù),降低損失函數(shù)。

        1.2 主干網(wǎng)絡(luò)Backbone

        1)Focus處理

        Focus處理為切片操作,目的是為了使特征圖在每一個特征信息沒有變化的前提下增加圖像的特征數(shù)。假設(shè)原始輸入圖像為608×608×3。通過切片操作,變成304×304×12的特征圖。最后經(jīng)過一次32個卷積核的卷積操作,變成304×304×32的特征圖。

        2)CBL層

        Focus處理后的圖像經(jīng)過CBL層,即先經(jīng)過卷積層得到輸入的不同特征。然后經(jīng)過BN層,對所有的批處理數(shù)據(jù)進(jìn)行規(guī)范化,實現(xiàn)結(jié)果的歸一化。最后使用激活函數(shù)leaky_relu[18]處理結(jié)果到下一層的卷積中。

        3)CSP結(jié)構(gòu)

        在YOLOv5中使用了兩種CSP結(jié)構(gòu)。主干網(wǎng)絡(luò)Backbone使用CSP1_結(jié)構(gòu),Neck網(wǎng)絡(luò)使用CSP2_結(jié)構(gòu)[19]。其中的表示殘差組件個數(shù)。以此使得算法輕量化,在減少計算量的同時又能夠提高模型的學(xué)習(xí)能力[19]。

        4)SPP空間金字塔池化

        空間金字塔池化操作由3部分組成:conv、maxpooling和concat。首先進(jìn)行卷積操作提取特征輸出,然后經(jīng)過3個不同核大小的最大池化層進(jìn)行下采樣,之后將各自輸出結(jié)果進(jìn)行拼接融合并將其與初始特征相加,最后經(jīng)過卷積操作將輸出恢復(fù)到同初始輸入一致[17]。SPP層不僅大大增加了感受野,可以分離出上下文的重要特征,而且對推理速度又幾乎無影響[20]。

        1.3 Neck網(wǎng)絡(luò)結(jié)構(gòu)

        Neck網(wǎng)絡(luò)采用FPN(Feature Pyramid Networks)結(jié)合PAN(Path Aggregation Network)的結(jié)構(gòu),作為網(wǎng)絡(luò)的融合部分。采用自頂向下的FPN結(jié)構(gòu),以及自底向上的兩個PAN結(jié)構(gòu)的特征金字塔[21]。其主要用來將提取出特征進(jìn)行混合組合,并傳遞到預(yù)測層,加強(qiáng)網(wǎng)絡(luò)特征融合的能力。Neck網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。

        圖2 Neck網(wǎng)絡(luò)結(jié)構(gòu)

        1.4 預(yù)測端Prediction

        YOLOv5采用GIOU_Loss作為損失函數(shù),同時通過非極大值抑制NMS來篩選目標(biāo)框[22]。

        如圖3所示,實線框表示目標(biāo)真實框,虛線框表示預(yù)測框,表示兩個框之間的交集,表示兩個框之間的并集,而交并比IOU為交集與并集之比。則IOU計算公式如下:

        如圖4所示,設(shè)目標(biāo)真實框、預(yù)測框的最小外接矩形為;為與并集的差集,則GIOU(Generalized Intersection Over Union)計算公式如下:

        而作為損失函數(shù)即:

        2 改進(jìn)YOLOv5目標(biāo)檢測算法

        如圖5所示,針對紅外弱小目標(biāo)的檢測需要較高檢測準(zhǔn)確率和檢測速度的實際情況,本文以YOLOv5算法為基礎(chǔ),在此基礎(chǔ)上進(jìn)行改進(jìn),在構(gòu)建的YOLOv5神經(jīng)網(wǎng)絡(luò)模型主干網(wǎng)絡(luò)Backbone中添加注意力機(jī)制提高模型的特征提取能力和檢測效率。改進(jìn)預(yù)測端Prediction中的損失函數(shù)和預(yù)測框篩選方法,提高紅外弱小目標(biāo)檢測準(zhǔn)確率。

        圖4 GIOU示意圖

        圖5 改進(jìn)YOLOv5目標(biāo)檢測算法

        2.1 改進(jìn)注意力機(jī)制SE模塊

        在YOLOv5目標(biāo)檢測網(wǎng)絡(luò)模型中添加注意力機(jī)制是為了提高模型的特征提取能力和檢測精度,根據(jù)紅外弱小目標(biāo)較小的特點,進(jìn)一步的優(yōu)化特征融合層以及多尺度檢測層的特征尺度,使得訓(xùn)練出來的檢測模型能夠更好地適應(yīng)小目標(biāo)的檢測,同時提高模型的檢測速度。

        本改進(jìn)算法添加注意力機(jī)制SE模塊,該模塊操作分為3個階段:首先對輸入特征圖(,,)進(jìn)行全局池化,池化的尺寸為(,),輸出(1×1×)大小的特征圖;隨后經(jīng)過兩個全連接層,分別為/12個神經(jīng)元以及個神經(jīng)元以增加非線性因子;最后經(jīng)過Sigmoid激活函數(shù)輸出(1×1×)大小的權(quán)重因子,利用該權(quán)重因子對原始特征圖(,,)各通道進(jìn)行乘積,最終能夠輸出不同比重通道的特征圖。具體如圖6所示。

        圖6 注意力機(jī)制SE模塊

        2.2 改進(jìn)的損失函數(shù)CIOU_Loss

        如圖7所示,GIOU_Loss算法雖然解決了兩個框沒有交集的情況下無法反應(yīng)兩個框距離的遠(yuǎn)近的問題,但當(dāng)預(yù)測框在目標(biāo)真實框內(nèi)時,無法判別預(yù)測框的位置[23]。其中實線框表示目標(biāo)真實框,虛線框表示預(yù)測框。

        圖7 GIOU無法識別預(yù)測框位置圖

        因此本文改用CIOU_Loss(Complete Intersection Over Union_Loss)算法。該損失函數(shù)不僅考慮兩個框距離遠(yuǎn)近的問題,而且考慮框的寬高比信息,可以有效解決GIOU_Loss算法存在的問題。具體計算方法如下。

        如圖8所示,設(shè)最小外接矩形的對角線為,目標(biāo)真實框和預(yù)測框中心點距離為,則CIOU-Loss計算公式如下:

        式中:是表征目標(biāo)預(yù)測框長寬比一致性的參數(shù),計算公式如下:

        式中:wgt、hgt表示目標(biāo)真實框的寬和高;wp、hp表示預(yù)測框的寬和高[24]。

        2.3 改進(jìn)的預(yù)測框篩選方式DIOU_NMS

        在YOLOv5算法中采用普通的NMS的方式,該方式利用交并比IOU抑制冗余的預(yù)測框。重疊區(qū)域為唯一判斷因素,導(dǎo)致遮擋情況下會存在錯誤抑制。而在本文中所采用的DIOU_NMS(Distance Intersection Over Union_Non Maximum Suppression)非極大值抑制,將DIOU作為抑制的準(zhǔn)則,不僅考慮重疊區(qū)域的影響,而且考慮兩個框的中心距離信息,可以提高重疊和被遮擋目標(biāo)檢測精度,使得預(yù)測結(jié)果更加合理和準(zhǔn)確。

        3 實驗與分析

        3.1 數(shù)據(jù)集準(zhǔn)備

        訓(xùn)練集圖像采用labelimg工具進(jìn)行標(biāo)注,共使用7組不同復(fù)雜背景下的數(shù)據(jù)進(jìn)行實驗,訓(xùn)練集、驗證集、測試集劃分比例為7:2:1。具體實驗數(shù)據(jù)集劃分如表1所示。

        表1 紅外圖像數(shù)據(jù)劃分

        訓(xùn)練集數(shù)據(jù)標(biāo)注如圖9所示。

        為了能夠驗證算法的有效性,采用紅外弱小目標(biāo)數(shù)據(jù)集7組分辨率為256×256像素的紅外弱小目標(biāo)圖像。data1是近距離,單個目標(biāo),空地交界背景下目標(biāo)圖像數(shù)據(jù)集。data2是近距離,兩個目標(biāo),天空背景下,交叉飛行的目標(biāo)圖像數(shù)據(jù)集。data3是目標(biāo)由遠(yuǎn)及近,單個目標(biāo),地面背景為林地的目標(biāo)圖像數(shù)據(jù)集。data4是目標(biāo)由近及遠(yuǎn),單個目標(biāo),地面背景為林地的目標(biāo)圖像數(shù)據(jù)集。data5是單個目標(biāo),目標(biāo)機(jī)動,地面背景為森林的目標(biāo)圖像數(shù)據(jù)集。data6是目標(biāo)由遠(yuǎn)及近,單個目標(biāo),目標(biāo)機(jī)動,地面背景為森林的目標(biāo)圖像數(shù)據(jù)集。data7是單個目標(biāo),目標(biāo)機(jī)動,地面背景為山丘的目標(biāo)圖像數(shù)據(jù)集。

        圖9 訓(xùn)練數(shù)據(jù)集標(biāo)注

        3.2 訓(xùn)練環(huán)境及參數(shù)配置

        本實驗在深度學(xué)習(xí)框架Pytorch上搭載,在ubuntu16.04上運(yùn)行,具體配置如表2所示。

        表2 訓(xùn)練環(huán)境配置

        本實驗采用YOLOv5s模型進(jìn)行訓(xùn)練,訓(xùn)練批次batch size設(shè)置為8,訓(xùn)練權(quán)重采用Yolov5s.pt,訓(xùn)練輪次為50,具體配置如表3所示。

        表3 訓(xùn)練參數(shù)配置

        3.3 實驗結(jié)果與分析

        本實驗評價指標(biāo)采用準(zhǔn)確率、召回率和平均精度均值來衡量,即分別為Precision、Recall、mAP(mean average precision)。其中Precision和Recall計算公式如(7)和(8)所示:

        式中:TP表示目標(biāo)為真實目標(biāo),檢測結(jié)果為真實目標(biāo);FP表示目標(biāo)不是真實目標(biāo),檢測結(jié)果不是真實目標(biāo);FN表示目標(biāo)為真實目標(biāo),檢測結(jié)果為不是真實目標(biāo)。則本文的Precision表示在檢測出為紅外弱小目標(biāo)的樣本中有多少是真正的紅外弱小目標(biāo),反映了檢測結(jié)果是否準(zhǔn)確的問題。Recall表示在全部的紅外弱小目標(biāo)圖像樣本中,有多少紅外弱小目標(biāo)被正確檢測出,反映了紅外弱小目標(biāo)是否齊全的問題。精度均值A(chǔ)P為以準(zhǔn)確率Precision和召回率Recall所圍成的曲線面積值。mAP為學(xué)習(xí)的所有類別精度均值的平均值。mAP@0.5表示將交并比IOU設(shè)為0.5時,計算每一類的所有圖像數(shù)據(jù)集的AP,然后所有類別求平均的值。

        訓(xùn)練出模型準(zhǔn)確率、召回率和平均精度均值如圖10、圖11和圖12所示。從圖10和圖11可以看出,在訓(xùn)練大約20個epoch之后,目標(biāo)檢測準(zhǔn)確率和召回率趨于穩(wěn)定。而此時從圖12可以看出,由目標(biāo)檢測準(zhǔn)確率和召回率決定的平均精度均值也趨于穩(wěn)定,驗證了算法模型的準(zhǔn)確性。同時訓(xùn)練過程中的損失函數(shù)迭代過程如圖13所示??梢钥吹皆诖蠹s25個epoch之后,損失函數(shù)CIOU_Loss降低到0.05以下,驗證了算法模型收斂的快速性。

        圖10 目標(biāo)檢測準(zhǔn)確率

        圖11 目標(biāo)檢測召回率

        圖12 平均精度均值(mAP@0.5)

        圖13 損失函數(shù)CIOU_Loss

        同時為了檢驗訓(xùn)練出目標(biāo)檢測模型的性能,實驗對比了SSD(Single Shot MultiBox Detector,SSD)、Faster R-CNN、YOLOv3和YOLOv5等算法,采用mAP作為評價指標(biāo),同時記錄目標(biāo)檢測模型的檢測速度,對比結(jié)果如表4所示。

        由表4可以看出,本文改進(jìn)YOLOv5算法的mAP值達(dá)到了99.65%,相較于SSD、Faster R-CNN、YOLOv3、YOLOv5算法分別提高了20.77%、9.32%、2.1%、0.89%。SSD由于利用多層的特征圖作為結(jié)果輸出,導(dǎo)致網(wǎng)絡(luò)層數(shù)加深,弱小目標(biāo)特征弱化,不利于弱小目標(biāo)的檢測。Faster R-CNN由于進(jìn)行多次下采樣操作,導(dǎo)致無法對小目標(biāo)進(jìn)行有效的特征提取。YOLOv3和YOLOv5相較于前兩種方法,mAP有了明顯的提升,改進(jìn)YOLOv5則在YOLOv3和YOLOv5的基礎(chǔ)上mAP值仍有提高,且目標(biāo)檢測模型檢測每幀圖片時間更短,相對于YOLOv3和YOLOv5檢測準(zhǔn)確率有明顯提升,檢測時間明顯縮短。

        表4 算法模型結(jié)果對比

        為測試本文改進(jìn)YOLOv5算法檢測弱小目標(biāo)的性能,實驗對比了本文改進(jìn)YOLOv5算法和SSD、Faster R-CNN、YOLOv3、YOLOv5算法訓(xùn)練出模型在7組數(shù)據(jù)集測試中的結(jié)果,具體如圖14所示。

        從圖14檢測結(jié)果可以看到,SSD算法訓(xùn)練出來模型存在較大的漏警率,能夠檢測出空地交接背景和天空背景等背景較為單一場景下的紅外弱小目標(biāo),但對森林和山丘等較為復(fù)雜背景下的紅外弱小目標(biāo)并不能檢測出來。Faster R-CNN算法因為采用多次下采樣的操作的原因,導(dǎo)致對小目標(biāo)特征無法進(jìn)行有效提取,訓(xùn)練出來模型存在虛警和漏警情況,且檢測出虛警目標(biāo)置信度較高。而YOLOv3和YOLOv5算法訓(xùn)練出來模型性能相較于SSD和Faster R-CNN算法有所改進(jìn),但同樣存在虛警和漏警情況。而本文改進(jìn)YOLOv5算法訓(xùn)練出來模型在7組復(fù)雜背景下的紅外弱小目標(biāo)均能被有效識別出來,且準(zhǔn)確率高,虛警率低,訓(xùn)練出模型檢測判定為紅外弱小目標(biāo)的置信度在0.8左右。性能遠(yuǎn)遠(yuǎn)高于對比算法訓(xùn)練出模型。驗證了算法和訓(xùn)練出模型的正確性和有效性。

        本文改進(jìn)YOLOv5算法之所以能實現(xiàn)以上效果,首先在于給Backbone主干網(wǎng)絡(luò)中添加了注意力機(jī)制SE模塊,使得提取的紅外弱小目標(biāo)特征被賦予了不同的權(quán)重,獲得不同比重通道的特征圖,從而使得神經(jīng)網(wǎng)絡(luò)能夠有針對性的進(jìn)行訓(xùn)練。從圖13訓(xùn)練過程中損失函數(shù)迭代過程可以看出,大約訓(xùn)練25個epoch后,神經(jīng)網(wǎng)絡(luò)趨于收斂,這大大節(jié)省了網(wǎng)絡(luò)訓(xùn)練時間。其次,添加注意力機(jī)制SE模塊能夠提高訓(xùn)練出模型的針對性,并且輕量化模型,這不僅能降低虛警情況的出現(xiàn),同時從表4可以看出,改進(jìn)YOLOv5算法訓(xùn)練出模型檢測每幀圖片速度大約為0.82s,相較于實驗對比SSD、Faster R-CNN、YOLOv3、YOLOv5算法,檢測速度分別提高了85.86%、83.23%、66.80%、34.40%,明顯提高了訓(xùn)練出模型檢測紅外弱小目標(biāo)的實時速度。最后,從圖14檢測結(jié)果分析出,改進(jìn)的損失函數(shù),考慮了紅外弱小目標(biāo)檢測時預(yù)測框在目標(biāo)真實框內(nèi)導(dǎo)致無法判別預(yù)測框位置的問題,相對于實驗對比算法,降低了漏警情況的出現(xiàn)。而改進(jìn)的預(yù)測框篩選方式則可以有效避免當(dāng)出現(xiàn)兩個目標(biāo)重疊情況時漏警現(xiàn)象的出現(xiàn)。

        圖14 測試集檢測結(jié)果

        4 結(jié)論

        綜上所述,為了解決復(fù)雜背景下傳統(tǒng)紅外弱小目標(biāo)檢測過分依賴于對紅外目標(biāo)與環(huán)境背景的精確分離和信息提取的問題,本文提出了一種基于改進(jìn)YOLOv5的復(fù)雜背景紅外弱小目標(biāo)檢測算法。該算法訓(xùn)練出目標(biāo)檢測模型經(jīng)過驗證,在保證較高準(zhǔn)確率的同時能達(dá)到實時檢測的要求。訓(xùn)練出模型針對7種不同復(fù)雜背景,紅外弱小目標(biāo)均能有效檢測出來,且不存在漏檢和虛警的現(xiàn)象出現(xiàn),平均精度均值達(dá)到99.6%以上,驗證了算法和模型的正確性。下一步擬在不影響算法和模型性能的前提下繼續(xù)提高檢測速度。

        [1] GAO Jinyan, GUO Yulan, LIN Zaiping, et al. Robust infrared small target detection using multiscale gray and variance difference measures[J]., 2018, 11(12): 5039-5052.

        [2] XU Yongli, WANG Weihua. A method for single frame detection of infrared dim small target in complex background[J]., 2020, 1634(1): 012063.

        [3] 馬銘陽, 王德江, 孫翯, 等. 基于穩(wěn)健主成分分析和多點恒虛警的紅外弱小目標(biāo)檢測[J]. 光學(xué)學(xué)報, 2019, 39(8): 0810001.

        MA Mingyang, WANG Dejiang, SUN He, et al. Infrared dim-small target detection based on robust principal component analysis and multi-point constant false alarm[J]., 2019, 39(8): 0810001.

        [4] 楊其利, 周炳紅, 鄭偉, 等. 基于全卷積網(wǎng)絡(luò)的紅外弱小目標(biāo)檢測算法[J]. 紅外技術(shù), 2021, 43(4): 349-356.

        YANG Qili, ZHOU Binghong, ZHENG Wei, et al. Infrared weak target detection algorithm based on full convolutional network[J]., 2021, 43(4): 349-356.

        [5] 仇國慶, 楊海靜, 王艷濤, 等. 基于視覺特征融合的機(jī)載紅外弱小目標(biāo)檢測[J]. 激光與光電子學(xué)進(jìn)展, 2020, 57(18): 79-86.

        QIU Guoqing, YANG Haijing, WANG Yantao, et al. Dim target detection in airborne infrared images based on visual feature fusion[J]., 2020, 57(18): 79-86.

        [6] 陸福星, 李夜金, 陳忻, 等. 基于Top-hat變換的PM模型弱小目標(biāo)檢測[J]. 系統(tǒng)工程與電子技術(shù), 2018, 40(7): 1417-1422.

        LU Fuxing, LI Yegin, CHEN Xin, et al. Weak target detection for PM model based on Top-hat transform[J]., 2018, 40(7): 1417-1422.

        [7] 汪烈兵, 姜雄飛, 石春光, 等. 基于圖像濾波與Hough變換的紅外弱小目標(biāo)檢測[J]. 紅外技術(shù), 2020, 42(7): 683-687.

        WANG Liebing, JIANG Xiongfei, SHI Chunguang, et al. Infrared small target detection based on image filtering and Hough transform[J]., 2020, 42(7): 683-687.

        [8] 韓金輝, 董興浩, 蔣亞偉, 等. 基于局部對比度機(jī)制的紅外弱小目標(biāo)檢測算法[J]. 紅外技術(shù), 2021, 43(4): 357-366.

        HAN Jinhui, DONG Xinjhao, JIANG Yawei, et al. Infrared small dim target detection based on local contrast mechanism[J]., 2021, 43(4): 357-366.

        [9] Kaveh Ahmadi, Ezzatollah Salari. Small dim object tracking using frequency and spatial domain information[J]., 2016, 58: 227-234.

        [10] 馮洋. 基于小波包變換的紅外弱小目標(biāo)檢測[J].計算機(jī)與現(xiàn)代化, 2020(12): 112-115, 122.

        FENG Yang. Infrared dim small target detection based on wavelet packet transform[J]., 2020(12): 112-115, 122.

        [11] 李德新, 鐘洪. 基于差異梯度直方圖與顯著性映射的紅外弱小目標(biāo)檢測算法[J]. 光學(xué)技術(shù), 2021, 47(5): 594-600.

        LI Dexin, ZHONG Hong. Infrared dim small target detection algorithm based on difference histogram of oriented gradients and saliency map[J]., 2021, 47(5): 594-600.

        [12] ZHANG N, Donahue J, Girshick R, et al. Part-based R-CNNs for fine-grained category detection[C]//, 2014: 834-849.

        [13] Girshick R. Fast R-CNN[C]//, 2015: 1440-1448.

        [14] REN S, HE K, Girshick R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[J]., 2017, 39(6): 1137-1149.

        [15] Redmon J, Divvala S, Girshick R, et al. You Only Look Once: real-time object detection[C]//, 2016: 779-788.

        [16] LIU W, Anguelov D, Erhan D, et al. SSD: Single shot multibox detector[C]//, 2016: 21-37.

        [17] 楊曉玲, 江偉欣, 袁浩然. 基于Yolov5的交通標(biāo)志識別檢測[J]. 信息技術(shù)與信息化, 2021(4): 28-30.

        YANG Xiaoling, JIANG Weixin, YUAN Haoran. Traffic sign recognition detection based on Yolov5[J]., 2021(4): 28-30.

        [18] Lowe D G. Distinctive image features from scale invariant keypoints[J]., 2004, 60(2): 91-110.

        [19] 范有臣, 馬旭, 馬淑麗, 等. 深度學(xué)習(xí)在激光干擾效果評估中的應(yīng)用[J/OL]. 紅外與激光工程, [2021-08-03]: 1-8.

        FAN Youchen, MA Xu, MA Shuli et al. Evaluation method of laser jamming learning effect based on deep learning[J/OL]., [2021-08-03]: 1-8.

        [20] 林清平, 張麒麟, 肖蕾. 采用改進(jìn)YOLOv5網(wǎng)絡(luò)的遙感圖像目標(biāo)識別方法[J]. 空軍預(yù)警學(xué)院學(xué)報, 2021, 35(2): 117-120.

        LIN Qingping, ZHANG Qilin, XIAO Lei. A remote sensing image target recognition method using improved YOLOv5 network[J]., 2021, 35(2): 117-120.

        [21] 王宇寧, 龐智恒, 袁德明. 基于YOLO算法的車輛實時檢測[J].武漢理工大學(xué)學(xué)報, 2016, 38(10): 41-46.

        WANG Yuning, PANG Zhiheng, YUAN Deming. Vehicle detection based on YOLO in real time[J]., 2016, 38(10): 41-46.

        [22] 周飛燕, 金林鵬, 董軍. 卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J].計算機(jī)學(xué)報, 2017, 40(6): 1229-1251.

        ZHOU Feiyan, JIN Linpeng, DONG Jun. Review of convolutional neural network[J]., 2017, 40(6): 1229-1251.

        [23] ZHOU Junchi et al. Ship target detection algorithm based on improved YOLOv5[J]., 2021, 9(8): 908-908.

        [24] 張宏群, 班勇苗, 郭玲玲, 等. 基于YOLOv5的遙感圖像艦船的檢測方法[J]. 電子測量技術(shù), 2021, 44(8): 87-92.

        ZHANG Hongqun, BAN Yongmiao, GUO Lingling, et al. Detection method of remote sensing image ship based on YOLOv5[J]., 2021, 44(8): 87-92.

        Improved YOLOv5-based Infrared Dim-small Target Detection under Complex Background

        DAI Jian,ZHAO Xu,LI Lianpeng,LIU Wen,CHU Xinyue

        (Beijing Key Laboratory of High Dynamic Navigation Technology, Beijing Information Science & Technology University, Beijing 100192, China)

        Using the traditional algorithm to meet the detection requirements of interference factors, such as complex background and noise, relying on the precise separation and information extraction of infrared targets and environmental background, is difficult. This paper presents a dim–small target detection method for an infrared imaging algorithm based on the improved YOLOv5 for complex backgrounds. Based on YOLOv5, an attention mechanism is introduced in the algorithm to improve the feature extraction ability and detection efficiency. In addition, the loss function and prediction box screening method of the original YOLOv5 target detection network are used to improve the accuracy of the algorithm for infrared dim–small target detection. In the experiment, seven sets of infrared dim–small target image datasets with different complex backgrounds are selected, the data are labeled and trained, and an infrared dim–small target detection model is established. Finally, the accuracy of the algorithm and model is evaluated in terms of the model training and target detection results. The experimental results show that the model trained by employing the improved YOLOv5 algorithm in this study has a significant improvement in detection accuracy and speed compared with several target detection algorithms used in the experiment, and the average accuracy can reach more than 99.6%. The model can effectively detect infrared dim–small targets in different complex backgrounds, and the leakage and false alarm rates are low.

        infrared dim-small target, complex backgrounds, YOLOv5, attention mechanism, loss function

        TP391

        A

        1001-8891(2022)05-0504-09

        2021-09-18;

        2021-10-21.

        代牮(1997-),男,碩士研究生,主要從事紅外與激光雙模復(fù)合探測技術(shù)的研究。E-mail:hbjsdj970321@163.com。

        趙旭(1988-),男,博士,碩士生導(dǎo)師,清華大學(xué)訪問學(xué)者,主要從事激光紅外復(fù)合近場探測,導(dǎo)航制導(dǎo)與控制方面的研究。E-mail:zhaoxu@bistu.edu.cn。

        國家重點研發(fā)計劃課題(2020YFC1511702);國家自然科學(xué)基金(61771059);北京學(xué)者計劃、高動態(tài)導(dǎo)航技術(shù)北京市重點實驗室資助項目。

        猜你喜歡
        弱小紅外背景
        ?。∷?,上岸吧
        網(wǎng)紅外賣
        “新四化”背景下汽車NVH的發(fā)展趨勢
        閃亮的中國紅外『芯』
        金橋(2021年4期)2021-05-21 08:19:20
        《論持久戰(zhàn)》的寫作背景
        TS系列紅外傳感器在嵌入式控制系統(tǒng)中的應(yīng)用
        電子制作(2019年7期)2019-04-25 13:17:14
        晚清外語翻譯人才培養(yǎng)的背景
        基于快速遞推模糊2-劃分熵圖割的紅外圖像分割
        我有特別的喝水技巧
        柴的嘲笑
        色偷偷亚洲第一综合网| 亚洲aⅴ天堂av天堂无码麻豆| 怡春院欧美一区二区三区免费 | 国产精品,在线点播影院| 精品国产乱子伦一区二区三| 免费无码精品黄av电影| 精品国产三级在线观看| 精品欧洲AV无码一区二区免费| 91国内偷拍精品对白| 色88久久久久高潮综合影院| 把插八插露脸对白内射| 日韩激情网| 午夜视频在线观看国产19| 亚洲av无码专区亚洲av网站| 少妇极品熟妇人妻无码| 国产在线观看精品一区二区三区| 91九色中文视频在线观看| 在线天堂www中文| 亚洲AV电影天堂男人的天堂| 日本护士一区二区三区高清热线 | 亚洲精品综合欧美一区二区三区| 国产精品久久中文字幕第一页| 视频国产一区二区在线| 精品视频一区二区三区在线观看| 国产a v无码专区亚洲av| 中国产无码一区二区三区| 日本视频一区二区三区观看| 国产福利视频在线观看| 99久久国产视频| 69久久精品亚洲一区二区| 日本精品久久久久中文字幕| 999久久久免费精品国产| 国产91AV免费播放| 国产精品亚洲二区在线看| 特级无码毛片免费视频尤物| 亚洲国产精品500在线观看| 亚洲一区二区三区色偷偷| 欧美日韩亚洲中文字幕二区| 毛片网站视频| 国产成人av一区二区三| 少妇被爽到高潮喷水久久欧美精品|