亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于雙重分類深度學習的低空目標自動檢測方法

        2022-04-28 11:59:06鐘立軍甘叔瑋張小虎
        上海航天 2022年2期
        關鍵詞:檢測方法

        鐘立軍,林 彬,王 杰,甘叔瑋,張小虎

        (中山大學航空航天學院,廣東廣州 510275)

        0 引言

        利用光電經緯儀進行跟蹤式測量是靶場進行低空目標測量的主要手段。在對目標進行跟蹤測量的過程中會產生大量圖像,目標類型一般為飛機和導彈,其中,飛機分為載機和靶機,導彈分為試驗彈和靶彈。一個任務會有多臺設備參與整個任務的跟蹤,以任務時間5 min,幀率為100 幀/s、6 臺設備、每臺設備3 個探頭為例計算,圖像總量約為3×6×5×60×100=540 000 幀,而每個設備包含目標的有效跟蹤段落只是其中一部分,人工檢查包含目標的段落會消耗大量時間。因此,快速、準確地檢測圖像中的目標,對靶場快速甚至實時進行數(shù)據處理以及其他圖像分析有著重要意義。

        目前,目標檢測方法主要有基于變化檢測、基于人工設計特征檢測和深度學習檢測。

        基于變化檢測的思路不太適用于靶場目標檢測,其原因主要有以下2 點:1)靶場低空圖像主要為天空背景,紋理弱,甚至主要以噪聲為主,若基于經緯儀角度進行運動補償,很容易出現(xiàn)虛假目標;2)為確保跟蹤穩(wěn)定,經緯儀會盡可能保證目標在圖像中心,此時目標在圖像上無明顯運動規(guī)律,在目標保持勻速的情況下甚至會短時間內保持不動,且背景會變化,此時基于運動的檢測方法將會失效。

        基于人工設計特征和分類器的方法很難適用于靶場低空目標檢測的原因有以下3 點:1)圖像類型、目標表現(xiàn)形式、試驗場景多,且由于跟蹤距離遠,存在大量的弱小目標;2)基于人工設計特征的檢測方法在定位目標和給出目標框的大小時依靠滑動窗口的方式進行,算法耗時大,很難實現(xiàn)快速檢測;3)基于人工設計特征和分類器的方法很難設計出能魯棒的區(qū)分靶場各類目標的特征,也同樣很難訓練出能區(qū)分各類特征的分類器。因此,基于人工設計特征和分類器的方法在靶場應用具有很大的局限性。

        靶場低空目標圖像由于場景和目標的特殊性,其圖像特點與公開數(shù)據集中的圖像區(qū)別很大。公開數(shù)據集中的圖像目標為生活中常見的人和物,成像清晰,紋理豐富;而靶場圖像目標主要為武器,成像模糊,紋理較弱,一般為單通道灰度或紅外圖像,大多體現(xiàn)為弱目標或小目標。因此,目前的深度學習成果無法直接應用于靶場目標檢測,需要針對靶場圖像的特點進行分析與研究。本文結合多年靶場圖像處理經驗,研究如何將深度學習應用于靶場圖像處理,使深度學習在靶場發(fā)揮更大的作用。由前述分析可知,對于靶場實際需求,檢測速度是其最重要的需求,因此采用YOLO V3 算法作為檢測算法的基礎框架,結合低空目標圖像的特點進行改進,尤其是紅外目標紋理和輪廓不清晰的情況,給出了一種改進的雙重分類檢測方法及結合場景特性的后處理方法。

        1 相關工作

        目標檢測是計算機視覺領域的熱點問題之一,相應的研究非常多,從早期的人工特征及變化檢測到基于深度學習的方法,各類方法層出不窮,性能也有了大步提升,尤其是目前基于深度學習的方法已經在檢測性能上遠超傳統(tǒng)方法。

        自2012 年KRIZHEVSKY 等在ImageNet 大規(guī)模目標識別比賽(ImageNet Large Scale Visual Recognition Challenge,ILSVRC)中使用AlexNet卷積神經網絡(Convolutional Neural Network,CNN)模型以絕對優(yōu)勢獲得冠軍后,基于深度學習的目標識別算法才引起了眾多研究者的熱切關注。深度學習方法是多層級的特征學習方法,能夠將從原始數(shù)據開始的特征轉化為更高階、更抽象化的層級特征。CNN 可以有效地捕獲隱藏的數(shù)據內部結構,得到大量更具代表性的特征信息,從而對樣本進行更高精度的分類和預測。尤其是ImageNet、VOC(Visual Object Class)、MS COCO(Microsoft Common Objects in Context)等包含大量圖像及標注信息數(shù)據集的發(fā)布,給深度學習的發(fā)展提供了必不可少的數(shù)據支撐?;诙鄬泳矸e網絡的深度學習在圖像處理領域本來就具有得天獨厚的優(yōu)勢,涌現(xiàn)出眾多具有代表性的目標檢測算法,主要分為兩階段檢測方法和單階段檢測方法。

        1.1 兩階段的深度學習目標檢測算法

        2014 年GIRSHICK 等提出區(qū)域卷積神經網絡(Regions with Convolutional Neural Network,R-CNN)模型,成為目標檢測深度學習算法的開端。與傳統(tǒng)的目標檢測方法相比,R-CNN 算法先進行選擇性搜索以確定候選區(qū)域再進行識別和定位,增強了檢測的針對性,提高了檢測精度。該方法在PASCAL VOC 2007(Pattern Analysis,Statistical Modeling and Computational Learning Visual Object Class2007)上的檢測率從35.1%提升到53.7%。隨后HE 等在R-CNN 模型的基礎上提出了空間金字塔池化網絡(Spatial Pyramid Pooling Convolutional Neural Network,SPP NET),該模型在全連接層前面添加一個可伸縮的池化層-空間金字塔池化層SPP,避免了因尺寸歸一化而引起的信息失真問題。2014 年GIRSHICK結 合SPP NET 的優(yōu)點提出了具有并行結構的Fast R-CNN 模型。該模型的主要特點是先對整幅圖像進行卷積操作,再從特征映射中選擇候選區(qū)域,這樣極大地提高了訓練速度;引入相當于單層SPP NET 的候選區(qū)域池化層感興趣區(qū)(Region Of Interest,ROI),共享候選區(qū)域在卷積網絡的前向傳播過程提取每個候選區(qū)域的固定維度特征表示;引入多任務損失函數(shù),將支持向量機(Support Vector Machine,SVM)分類器邊框回歸合并到一個端到端的網絡中。Fast R-CNN 模型融合了R-CNN 和SPP NET 的優(yōu)點,大幅提升了訓練與檢測速度。2015 年REN 等提出了Faster R-CNN算法,該算法的創(chuàng)新點主要體現(xiàn)在候選區(qū)域提取網絡設計、候選區(qū)域提取網絡訓練和共享卷積特征3個方面,并提出了一種全新的提取候選區(qū)域網絡(Region Proposal Network,RPN)。該網絡被置于全幅圖像CNN 的后面,通過Anchor 機制,確定滑動窗口內是否存在所要檢測的目標,并進行窗口邊界回歸,提取候選區(qū)域。較之前的Fast R-CNN 算法,F(xiàn)aster R-CNN 算法的檢測速度提升了10 倍。

        2017 年在Faster R-CNN 算法基礎上,HE 等提出了Mask R-CNN 算法。該算法可以實現(xiàn)目標識別、定位和分割3 項任務。與Faster R-CNN 算法相比,Mask R-CNN 算法在生成候選區(qū)域后添加了用來輸出分割掩碼的掩碼層(Mask Branch),該層并行于分類層和邊界回歸層,其實質上是一組全卷積層FCN,用來預測每個像素所屬目標類別實現(xiàn)分割。隨著R-CNN、Fast R-CNN、Faster R-CNN、MaskR-CNN等算法的不斷改進,基于候選區(qū)域的兩階段深度學習算法的檢測率不斷提高,檢測速度也不斷加快。

        1.2 單階段的深度學習目標檢測算法

        端對端單階段的目標檢測方法極大地加快了檢測速度,彌補了Faster R-CNN 實時性較差的缺點,具有代表性的此類方法有YOLO 系列、單炮多盒探測器(Single Shot MultiBox Detector,SSD)。

        2016 年REDMON 等提出了YOLO 算法,其網絡結構是在GoogleNet 模型之上建立的YOLO 算法,與Faster R-CNN 算法相比,采用這種統(tǒng)一模型實現(xiàn)了端對端的訓練和預測,其檢測速度更快,背景誤判率低,泛化能力和魯棒性較好。但由于每個單元格僅對同一組類別進行邊界框預測,這使得YOLO 算法的定位準確率受到影響。

        隨后YOLO 9000 算法對YOLO 算法進行了改進,在每一個卷積層后添加批量歸一化層,使用高分辨率分類器,采用新的特征提取網絡模型Darknet-19,采用-means 聚類方法對邊界框做了聚類分析,將檢測數(shù)據集和分類數(shù)據集聯(lián)合訓練。

        2018 年原作者提出了YOLO V3 算法,與YOLO 9000 算法相比,該算法采用殘差網絡模型Darknet-53 進行特征提取,并且利用特征金字塔網絡實現(xiàn)多尺度檢測。實驗表明:YOLO V3 算法在檢測速度上具有明顯優(yōu)勢。

        2020 年YOLO V4 被提出,相 比YOLO V3 而言,性能有進一步提升。

        2016 年鑒于YOLO 算法定位準確度差,尤其是對小目標的檢測遺漏問題,LIU 等提出了SSD 算法。該算法去除了YOLO 算法的全連接層,并借鑒Faster R-CNN 算法的Anchor 機制提出了默認框方法,對于底層的卷積層輸出使用較小尺度的限定框,實現(xiàn)對小目標的檢測。對于高層的卷積層輸出,使用較大尺度的限定框實現(xiàn)對大目標的檢測。

        2017 年FU 等對SSD 算法進一步優(yōu)化,提出了反卷積單炮多盒探測器(Deconvoluational Single Shot MultiBox Detector,DSSD)算法。不同于SSD算法直接在卷積層輸出上做預測,DSSD 算法在更深層的反卷積模塊上做預測,由于這種深層特征具有更大的感受野,因此這種深層特征和淺層特征相融合的方法為小目標提供了上、下文信息,進一步提升了對小目標的檢測精度。

        由于YOLO 系列具有速度優(yōu)勢,因此在實際工程中有廣泛應用。文獻[13-17]結合不同的場景及目標對YOLO 系列進行改進。

        2 本文方法框架及流程

        2.1 總體框架

        本文方法主要流程如圖1 所示,主要過程包括5個步驟:目標自動標注、圖像預處理、利用改進網絡進行訓練、檢測、結合場景先驗知識的后處理。

        圖1 算法流程Fig.1 Flow chart of the algorithm

        2.2 靶場圖像的多樣性及特點

        2.2.1 成像設備及圖像類型

        靶場的成像設備主要為光電經緯儀,同時搭載多個傳感器,多目標進行跟蹤測量。傳感器類型主要包括可見光及紅外探頭,其中,可見光包含捕獲電視和測量電視,捕獲電視焦距較短,視場較大,用于捕獲目標;測量電視焦距相對較長,觀測距離較遠,視場角小,一般僅為30′左右,用于對目標進行精確跟蹤及測量;紅外探測器主要包含長、中波2種,其跟蹤距離比可見光傳感器遠,且能全天候工作,但分辨率及幀頻相對可見光較小。

        2.2.2 目標類型及場景

        針對的場景類型為武器試驗及鑒定,目標主要為飛機和導彈,不包括火箭。按在任務中的作用,飛機分為靶機和載機,導彈分為試驗彈和靶彈。

        靶場主要場景包括空空、空地、低空、海面發(fā)射、水下發(fā)射等場景,各類場景特點不一。

        2.2.3 圖像及目標特點

        光電經緯儀布置在地面上,往上觀測空中目標,背景主要為天空,紅外圖像背景比較平整,呈現(xiàn)圓形斑。其目標顯著性主要取決于目標與背景的溫度差以及成像距離,對于主動段的導彈和帶曳光管的飛機而言,成像較明顯,此時較明顯部分為尾焰及曳光管,表現(xiàn)為亮目標,彈體和飛機可能無法識別,需要針對具體的成像場景進行分析。對于被動段導彈及不帶曳光管的飛機,由于相對背景溫差較小,其紅外圖像表現(xiàn)為較弱的目標,而對于可見光圖像其目標顯著性主要取決于其顏色對比度與成像距離,同時對云等的遮擋比較敏感,作用距離相對于紅外較短。

        本文針對光電經緯儀拍攝的圖像進行研究,即主要針對可見光圖像與紅外圖像進行研究。考慮到飛機和導彈都會有暗、亮目標2 種情況,比如導彈在被動段時其光學特性不明顯,相對有尾焰的情況表現(xiàn)較暗,在有尾焰的情況下相對較亮;對于飛機,在其帶曳光管時表現(xiàn)較亮,不帶時表現(xiàn)較暗。同時考慮到飛機和導彈的特征差異,因此存在暗導彈、亮導彈、暗飛機和亮飛機共4 類典型目標。

        2.3 基于歷史判讀結果與區(qū)域增長的標注過程

        由于目標圖像較多,若完全依賴于人工標注,工作量巨大,且容易出錯,因此利用目標序列圖像的特點,采用靶場的判讀結果進行標注。利用尋找直方圖波谷的方法獲得分割自適應閾值,利用目標位置初值,通過區(qū)域增長獲取目標區(qū)域。具體增長方法步驟如下:

        統(tǒng)計得到全圖灰度均值及直方圖;

        統(tǒng)計得到以判讀點為中心的21×21 區(qū)域內的最大值;

        在直方圖中由到進行遍歷,尋找第一個像素點數(shù)<5 的灰度作為分隔閾值;

        若不存在滿足條件的點則取+0.05(-)。

        標注結果如圖2 所示。除類似如圖3 所示的由于背景干擾導致框過大之外,其他樣本均能較好地實現(xiàn)目標框自動標注,且由該方法得到的框相比人工標注帶來的隨機性而言更具有一致性,即目標框滿足一定的標準。在自動標注的基礎上對一些明顯出錯的框進行人工修正。

        圖2 標注結果Fig.2 Schematic diagram of labeling results

        圖3 自動標注時受背景影響較大的目標Fig.3 Schematic diagram for a target greatly affected by the background under automatic labeling

        2.4 針對靶場圖像的預處理

        在將圖像輸入到網絡之前,需要對其進行預處理,其主要包含3 個步驟:去噪、增強、樣本增強。

        1)去噪。采用高斯濾波對圖像進行去噪。

        2)增強。由之前的分析可知,圖像背景主要為天空,背景灰度較均勻,對于暗目標,背景灰度與天空灰度區(qū)別不大,需要進行一定程度的拉伸,提升可辨識度。同時可見光圖像一般為8 位或10 位灰度圖像,目標的顯著度取決于目標的相對亮度,紅外圖像目標的顯著度取決于目標的相對溫度。因此可以利用該共同點對可見光與紅外圖像進行統(tǒng)一預處理。采用分段線性拉伸的方法對圖像進行處理,以增強目標對比度。經大量靶場低空目標圖像處理驗證,該方法能較好地弱化背景,突出目標。

        3)豐富樣本。深度學習中常用豐富樣本的方法有隨機切割、圖像旋轉、增加噪聲、改變圖像對比度和飽和度等。由于存在目標位于邊緣的情況,因此在采用隨機切割時考慮目標是否位于邊緣。對于目標位于圖像邊緣時,需保證目標位于切割后的圖像內。

        2.5 基于雙重分類的網絡結構改進

        由前面對目標特點的分析可知,暗導彈、亮導彈、暗飛機和亮飛機以及其他目標最初按照YOLO V3的處理方法,則直接將其編號為1,2,…,,但在實驗中發(fā)現(xiàn)該分類方法檢測結果并不理想。其主要原因是類型之間有共同點,1、2 和3、4 分別為同一類目標,而1、3 和2、4 之間又分別具有同樣的目標特點,目標同樣較亮或較暗,導致網絡分類困難,且解決4 分類問題本身就比解決2 分類問題困難。

        基于上述原因,將網絡改成雙重分類網絡,即對于目標類型分成單獨的2 分類:一類針對目標亮度,即亮目標和暗目標;另一類針對目標固有類型,如導彈、飛機、火箭等。改進前的網絡分類與改進后的網絡分類如圖4 所示。

        圖4 改進前與改進后的分類器Fig.4 Classifier before and after improvement

        因此對于每個框,輸出向量變成(4+1++2)個,增加的2 表示目標為亮目標或暗目標??傒敵鱿蛄块L度為××3×(4+1++2),在本文試驗中class 為2。

        2.6 檢測后處理

        對于靶場序列圖像進行目標檢測,由于檢測中不可避免地存在錯檢和漏檢的情況,因此需要考慮序列的約束,去掉其中的錯誤檢測,為后續(xù)的自動化處理提供準確的檢測結果。以下介紹2 種典型任務情況下的序列約束:

        1)對于空空或空地任務,即導彈由空中發(fā)射,目標位于空中或地面的情況,其任務過程為載機空中發(fā)射導彈到導彈擊靶。因此,對于載機和導彈的觀測設備而言,在載機飛行過程中只有載機一個目標,從發(fā)射開始到載機出視場的過程中有2 個目標,在導彈飛行過程中直到遇靶均只有一個目標,在相遇段過程中有2 個目標,分別為導彈和靶。對于觀測靶的設備而言,其在相遇段之前只有一個目標,在相遇段有2 個目標。

        2)對于地空或地地任務,即導彈由地面發(fā)射,目標位于空中或地面的情況,其任務過程為地面發(fā)射導彈到導彈擊靶。對于導彈的觀測設備而言,在導彈遇靶前均只有一個目標,在相遇段過程中有2 個目標,分別為導彈和靶;對于觀測靶的設備而言,其在相遇段之前只有一個目標,在相遇段有2 個目標。

        對于同一個目標,其由像機光心到目標的角度滿足一定的規(guī)律,不會存在大的跳變,具體規(guī)律可參考文獻[18]。

        3 試驗過程及結果

        采用基于判讀結果與區(qū)域增長的標注方法對靶場實際序列圖像進行標注,并對網絡進行訓練,同樣用靶場實際圖像進行驗證,數(shù)據總量為45 209 張,來自于20 組序列圖像,樣本中總共標注目標45 462 個,其中,導彈目標9 185 個,飛機目標36 277 個。

        3.1 樣本情況及訓練過程

        3.1.1 目標類型

        在本文試驗中,考慮到在后處理中需要利用目標的一致性約束,本文按實際情況將目標分為飛機與導彈2 類。對于同一個探頭而言,一般情況是跟蹤同一個目標,部分探頭會有相遇段出現(xiàn),即出現(xiàn)2個目標的情況。

        3.1.2 圖像類型

        圖像類型主要包括14 位紅外圖像、8 位可見光圖像、10 位可見光圖像及24 位彩色圖像。

        3.1.3 目標框聚類

        本文采用-means 聚類方法對數(shù)據集中的所有目標框進行聚類,聚類數(shù)設為9,框之間的距離采用寬和高的平方和。由于針對的任務場景為目標跟蹤過程,其目標相對距離為由遠及近,再由近及遠的過程,目標表現(xiàn)為由小到大,再由大到小的趨勢。因此,初值采用均分的方式設置,即采用最大面積和最小面積之間的等分間隔作為每個聚類的大小初值,聚類獲得的9 組框寬高依次為18.30、13.80,18.40、23.40,32.70、23.90,20.20、42.30,47.30、21.40,27.50、67.60,45.50、42.00,28.70、94.00,68.37、61.00。

        3.1.4 訓練過程

        將樣本標注好之后就輸入網絡進行訓練,訓練時先將圖像進行預處理,然后將其統(tǒng)一為三通道圖像,輸入網絡進行訓練,在檢測時同樣進行相應的預處理。初始學習率為0.001,對所有圖像訓練50個批次之后調整為0.000 1。訓練過程中需要調高目標比例權重。

        3.1.5 提高目標比例權重

        對于生活中的現(xiàn)實圖像,圖像中目標較多,因此YOLO V3 中將是否存在目標參數(shù)objectness 的比例設為1∶1,即跟非目標區(qū)域相等。在最初對靶場圖像進行訓練時,本文同樣將該參數(shù)的權重設為1,結果見表1。表中:IOU(Intersection Over Union)為訓練過程中的預測區(qū)域重合度,應接近于1;Class為目標類型準確度,應接近于1;Obj 為目標所在框有目標的概率,應接近于1;表中的No obj 為無目標區(qū)域有目標的概率,應接近于0。由表中結果看出,在No obj 趨向于0 的同時,Obj同樣趨向于0,在檢測時,YOLO V3 網絡 用×表示該區(qū)域目標的概率,因此在網絡檢測時無法正確識別目標。其主要原因是對于靶場圖像,大部分圖像上只有一個目標,極少數(shù)圖像上有2 個目標,即網絡得到的特征圖上的大部分均沒有目標,因此在殘差整體調整時,其貢獻較小,比較容易被其他無目標區(qū)域的調整淹沒,收斂較慢,甚至不收斂,因此需要提高目標區(qū)域的權重。因此將目標區(qū)域的權重調整為20。調整后的訓練結果見表1,此時網絡殘差均值為0.3。

        表1 目標區(qū)域權重調整前后訓練結果對比Tab.1 Comparison of the training results before and after the target area weight adjustment

        3.2 實驗結果對比

        3.2.1 試驗設計

        為分別驗證改進后YOLO V3 框架的有效性,進行2 組試驗:一組是用所有序列圖的1/10 進行訓練,即訓練樣本為4 520 張,另外9/10 的圖像用于檢測;另一組是用其中10 000 張圖像用于檢測,待檢測樣本來自于連續(xù)的序列圖像,檢測中的目標樣本接近1∶1,用剩下圖像的1/10 用于訓練。

        目標檢測問題同時包含分類與目標位置,即如何判斷目標檢測位置是否正確,考慮到本文圖像中小目標較多,本文取IOU 為0.25 作為判斷檢測是否正確的閾值。

        3.2.2 檢測精度及可靠性

        試驗1 檢測閾值為0.50,即目標可信度大于0.50 時才認為是可靠目標。在驗證過程中發(fā)現(xiàn),由于目標較小,若采用0.50 的IOU 判別閾值容易導致一些檢測到的目標視為無效,將IOU 判別閾值采用0.25,得到精確度與召回率曲線如圖5所示。

        圖5 試驗1 的精確度-召回率曲線Fig.5 Precision-recall curve of Experiment 1

        由圖5 可得,該方法針對靶場圖像的檢測率非常高,在召回率0.9 時導彈和飛機的檢測精度均在99%以上。其主要原因是序列圖像中目標具有一定的相似性。其中,(True Positive)=45 157,(False Positive)=13 264,(False Negative)=305,IOU 均值為56.31%,=0.87。經過對檢測結果進行分析,其中漏檢的目標主要為和均低于圖像區(qū)域3%的小目標,因此需要進一步研究提升小目標檢測成功率的方法。

        由、和的值可知,仍然存在不少錯誤的檢測,對于實現(xiàn)自動檢測及后續(xù)處理而言,還需要利用序列圖像之間的約束將其中的錯誤檢測排除。在經過后處理之后,檢測成功率均接近100%,=45 158,=56,=304,IOU 均值為72.77%,=0.99。經后處理確認后,去除了大量的錯誤檢測。

        在試驗2 中,檢測閾值采用0.50,即目標可信度大于0.50 時才認為是可靠目標,IOU 判別閾值采用0.25,得到精確度與召回率曲線如圖6 所示。

        圖6 試驗2 的精確度-召回率曲線Fig.6 Precision-recall curve of Experiment 2

        相比試驗1 的結果,試驗2 的導彈和飛機的檢測率均有降低。檢測的IOU 均值為42.00%,相比之前也有一定程度的降低。此時=9 042,=4 442,=658,=0.78,平均精度為90.27%。

        經過檢測確認后,=9 015,=5,=685,=0.96,檢測的IOU 均值為62.60%,檢測確認后的PR 曲線如圖7 所示。由上述數(shù)據與圖可看出,檢測處理后的效果有明顯提升。飛機和導彈的檢測結果如圖8~圖9 所示。

        圖7 試驗2 后處理之后的精確度-召回率曲線Fig.7 Precision-recall curve of Experiment 2 after postprocess

        圖8 飛機檢測結果Fig.8 Detection result of a plane

        圖9 導彈檢測結果Fig.9 Detection result of a missile

        3.2.3 檢測速度

        該算法的主體框架為YOLO V3 實現(xiàn),在YOLO V3 的全連接層上增加一個分類屬性,以及在全連接層之前的濾波層增加了2 個卷積核,其他結構完全一致,因此其運算量接近于YOLO V3。在GeForce RTX2080Ti 上運行時,平均每幀耗時12.4 ms,幀頻達到80.6 幀/s,可以實現(xiàn)靶場低空目標快速檢測需求。

        3.3 試驗結果分析

        由試驗結果得出,結合雙重分類的YOLO V3 網絡結合靶場低空序列圖像的特點,對靶場目標具有非常高的檢測精度和速度,能同時適用靶場多種圖像類型,可以有效提升靶場目標檢測的自動化程度。

        4 結束語

        本文給出一種適用于靶場低空場景的紅外與可見光目標檢測的方法,靶場多種場景下的實際圖像訓練及檢測結果表明:該方法能有效應用于靶場,提升靶場低空光測圖像處理的自動化程度。該方法進一步的工作包括以下2 個方面:1)目前使用的樣本主要針對低空場景,只包含導彈和飛機兩類目標,需要用更多的目標類型進行驗證;2)目前結果弱、小目標的檢測結果相對較差,后續(xù)需要考慮如何提升對于靶場低空弱、小目標的檢測成功率,并針對更多場景目標的圖像進行進一步的研究與測試。

        猜你喜歡
        檢測方法
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        “幾何圖形”檢測題
        “角”檢測題
        學習方法
        可能是方法不對
        小波變換在PCB缺陷檢測中的應用
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        国模精品二区| 国产亚洲欧美日韩综合综合二区 | 国产精品无码无卡无需播放器| 日本伦理视频一区二区| 日韩在线第二页| 国产免国产免费| 香蕉久久一区二区不卡无毒影院| av天堂在线免费播放| 亚洲国产精品悠悠久久琪琪| 精品一区二区三区无码免费视频| 国产三级精品视频2021| 国产精品亚洲av一区二区三区| 欧美高清视频一区| 国产zzjjzzjj视频全免费| 人妻少妇乱子伦无码视频专区| 99久久久人妻熟妇精品一区二区| 日本av一区二区播放| 男人天堂免费视频| av潮喷大喷水系列无码| 艳妇臀荡乳欲伦交换h在线观看| 亚洲1区第2区第3区在线播放| 国产日韩一区二区精品| 国产成人av综合亚洲色欲| 久久乐国产精品亚洲综合| 国产欧美一区二区三区在线看| 日本av亚洲中文字幕| av大片网站在线观看| 色窝窝手在线视频| 国产午夜在线观看视频播放| 久久久精品人妻一区二区三区四| 狠狠躁日日躁夜夜躁2020| 国产精品一区二区黑丝| 在线亚洲精品中文字幕美乳色| 国产不卡在线免费视频| 精品综合久久久久久8888| 亚洲av日韩精品久久久久久| 免费人成视频在线| 无码国内精品久久人妻| 亚洲av无码乱码国产麻豆| 日本视频一区二区三区在线观看| 国产三级c片在线观看|