柳想成,韓 隆,鄭 毅,李長楨,劉 爽,金夢軒
(中電科光電科技有限公司,北京 100015)
在軍事訓(xùn)練中,靶標裝置的先進與否決定著訓(xùn)練的質(zhì)量?,F(xiàn)有的靶標裝置多為固定靶和移動靶,其中固定靶雖然能夠很好地提高射擊精度,但訓(xùn)練形式較簡單,不能滿足智能化軍事訓(xùn)練要求。為此出現(xiàn)了移動靶,移動靶可以按照事先編好的程序進行運動、起倒等動作,但運動依然呈現(xiàn)規(guī)律性,不能滿足實戰(zhàn)化的訓(xùn)練要求。
為進一步滿足實際戰(zhàn)場和未來戰(zhàn)場的需要,讓靶標盡可能地滿足人的某些功能特征,如:目標檢測、主動攻擊功能。讓靶標能夠“活起來”具有目標檢測的能力,盡可能模擬單兵進行作戰(zhàn),提高訓(xùn)練人員的作戰(zhàn)能力,提高實際射擊水平、戰(zhàn)術(shù)執(zhí)行能力,滿足作戰(zhàn)訓(xùn)練任務(wù)的要求。
基于眾多領(lǐng)域的應(yīng)用推動了可見光圖像處理技術(shù)的發(fā)展,基于可見光圖像的目標識別技術(shù)走向成熟和完善。在靶標裝置領(lǐng)域,通過傳統(tǒng)靶標與深度學(xué)習(xí)進行融合,實現(xiàn)目標檢測的功能,進而實現(xiàn)靶標的智能反擊。
現(xiàn)有通用的目標檢測流程為在給定圖片中檢測出完整或有遮擋的目標,并用矩陣框標記檢測到的目標,同時顯示檢測的置信度。但將這門技術(shù)應(yīng)用到軍事訓(xùn)練中的靶標裝置,實現(xiàn)靶標智能化,需要針對目標特性進行有針對性的研究同時尋找高效可靠的識別方法。
本文根據(jù)軍事訓(xùn)練實戰(zhàn)化智能化的相關(guān)要求,將目標檢測與傳統(tǒng)靶標進行融合,通過改進基于Yolov5神經(jīng)網(wǎng)絡(luò)架構(gòu),實現(xiàn)高速準確的實時目標檢測。通過調(diào)節(jié)置信度來適應(yīng)不同場景中的應(yīng)用需求。
本文的主要研究內(nèi)容如下:
1)在Yolov5神經(jīng)網(wǎng)絡(luò)架構(gòu)的基礎(chǔ)上,提出運用輕量級通用上采樣算子CARAFE(Content-Aware ReAssembly of FEatures)[1]替換Yolov5網(wǎng)絡(luò)結(jié)構(gòu)Neck中FPN中的上采樣方式,用來確定圖像中采樣核數(shù)值較大的點。通過運用CARAFE輕量化上采樣算子獲得目標采樣點的位置,用來提高單兵目標檢測的準確度和速度。
2)在損失函數(shù)方面,本文使用新的損失函數(shù)CIOU_Loss[2],用來解決檢測框與目標框之間存在的位置關(guān)系問題,最后用非最大抑制(NMS)操作以產(chǎn)生最終結(jié)果從而提高單兵目標檢測精度[3]。
為實現(xiàn)最終對戰(zhàn)場環(huán)境中的單兵目標進行快速檢測并進行反擊,本次實現(xiàn)目標檢測的底層網(wǎng)絡(luò)架構(gòu)采用YOLOv5,同時為保證輕量化和嵌入式激光模擬訓(xùn)練裝置的要求,將使用規(guī)模最小的網(wǎng)絡(luò)。最終通過改進YOLOv5網(wǎng)絡(luò)中的采樣算子和采用CIOU_Loss函數(shù),提高目標檢測的精度和速度。
為滿足嵌入式激光模擬訓(xùn)練的靶標要求,將以最小模型YOLOv5s為底層網(wǎng)絡(luò)架構(gòu),本次用到的底層網(wǎng)絡(luò)架構(gòu)流程圖如圖1所示,該網(wǎng)絡(luò)架構(gòu)主要是由四部分組成。首先通過可見光圖像采集器采集圖像,將采集的圖像輸入到輸入端,接著通過骨干對圖像進行特征提取,最后通過預(yù)測部分鑒別目標,實現(xiàn)目標檢測功能。
2.1.1 Mosaic數(shù)據(jù)增強
首先需要底層網(wǎng)絡(luò)架構(gòu)加載圖像數(shù)據(jù),然后對原始數(shù)據(jù)通過Mosaic的方式對信息進行強化。主要是借助四張圖像,對影像展開拼合,得到一張新的圖像。
將拼合后得到的影像傳至底層網(wǎng)絡(luò)進行參數(shù)訓(xùn)練,大幅提高了批量大小。另外,由于進行了多張圖片的拼合,需要處理多張不同圖像的背景,因此也進一步提高了檢測物體的背景的復(fù)雜情況,保證最終對單兵目標展開即時精確檢測。
具體實現(xiàn)流程如圖2所示。
圖3 圖片縮放流程圖
2.1.2 自適應(yīng)錨框計算
由于最終應(yīng)用場景的不同,對多種不同的數(shù)據(jù)庫,通常會預(yù)設(shè)一定尺寸的錨框,這是相當(dāng)關(guān)鍵的一部分。在對底層網(wǎng)絡(luò)的訓(xùn)練中,神經(jīng)網(wǎng)絡(luò)將在最初錨框的基礎(chǔ)上輸出預(yù)測值并在圖像上以預(yù)測框的形式顯示出來,從而和真實情況下的錨框進行比對,計算彼此之間的差異,再逆向進行底層網(wǎng)絡(luò)的參數(shù)更新,迭代網(wǎng)絡(luò)進而實現(xiàn)最終檢測目標。
與先前YOLO神經(jīng)網(wǎng)絡(luò)體系結(jié)構(gòu)有所不同的是,YOLO神經(jīng)網(wǎng)絡(luò)訓(xùn)練各不相同的圖像數(shù)據(jù)庫時,求解出最先設(shè)定錨框的數(shù)值是由獨立編寫的程序進行推算得出。而本次是通過將設(shè)定錨框的功能集成到代碼中,在每次網(wǎng)絡(luò)進行訓(xùn)練時可以自適應(yīng)地計算最優(yōu)錨框值,減少對網(wǎng)絡(luò)的訓(xùn)練時間,同時可以提高靶標單兵目標檢測速度。
2.1.3 自適應(yīng)圖片縮放
在常見的可見光圖像目標檢測算法中,因為不相同的圖像尺寸大小并不相同,所以往往將早期輸入的圖像標準化之后,再將圖像送至基于底層網(wǎng)絡(luò)的可見光目標檢測算法。如:本文所使用的底層網(wǎng)絡(luò)架構(gòu)多用的圖像大小為416×416、608×608。所以如果需要基于此神經(jīng)網(wǎng)絡(luò)為底層網(wǎng)絡(luò)架構(gòu)處理尺寸不同的圖像,可以最先采取改變圖像的長寬到一個標準值,然后在送至目標檢測網(wǎng)絡(luò)結(jié)構(gòu)中進行單兵目標檢測。
在特定的目標檢測場景下,許多圖像的高寬比也各不相同,所以在調(diào)整圖像大小之后,需要用黑色像素值進行填充,故填充的面積也各不相同,而如果填充的比較多,則存在信息冗余,影響推理速度,不能滿足靶標系統(tǒng)對單兵目標快速進行檢測。所以在目標檢測算法中,對調(diào)整圖像大小的函數(shù)作出更改,對早期加載入的影像自動控制的填充最少的黑邊。圖像中需要填充黑色的面積就變小,在對可見光圖像的檢測中求解的計算量就會降低,所以對模擬戰(zhàn)場環(huán)境中單兵的檢測會更加快速,滿足對靶標的性能要求。
2.2.1 Focus結(jié)構(gòu)
在骨干網(wǎng)絡(luò)架構(gòu)中,重要的是Focus結(jié)構(gòu)。在此結(jié)構(gòu)中,主要是將輸入的圖像通過Focus結(jié)構(gòu)中的切片操作,把原始圖像變?yōu)閳D像的特征圖,更好的描述原始圖像。
以本次實現(xiàn)單兵目標檢測的底層網(wǎng)絡(luò)架構(gòu)為基礎(chǔ),將攝像機采集到的可見光圖像作為原始圖像加載到架構(gòu)中,同時從原始輸入圖像中提取圖像的特征圖,接著在通過底層網(wǎng)絡(luò)架構(gòu)中的卷積核再次提取圖像的特征圖。具體提取圖像的特征圖如圖4所示。
圖4 Focus結(jié)構(gòu)圖
2.2.2 CSP結(jié)構(gòu)
本次靶標中目標檢測的底層網(wǎng)絡(luò)架構(gòu)的骨干網(wǎng)絡(luò)用到的是在第1個CSP中,使用X個殘差組件方式,在Neck主干網(wǎng)絡(luò)架構(gòu)中用到CSP2_X,來解決圖像推理求解中的計算問題,具體框架如圖5所示。
圖5 YOLOv5網(wǎng)絡(luò)中CSP結(jié)構(gòu)
本次算法中的Neck采用FPN+PAN的結(jié)構(gòu),此外為滿足快速目標檢測的要求,對網(wǎng)絡(luò)中的其他部分也進行了調(diào)整,具體結(jié)構(gòu)圖如圖6所示。
圖7 YOLOv5網(wǎng)絡(luò)結(jié)構(gòu)
在本次使用的底層網(wǎng)絡(luò)架構(gòu)中,其中重要內(nèi)部結(jié)構(gòu)Neck選用跨階段局部網(wǎng)絡(luò)中使用的CSP2結(jié)構(gòu)設(shè)計,來解決單兵目標檢測中圖像推理計算量龐大的問題,同時也是為了進一步提高該神經(jīng)網(wǎng)絡(luò)利用提取的圖像特征的性能。
2.4.1 Bounding box損失函數(shù)
本次基于的網(wǎng)絡(luò)架構(gòu)采用的是由CIOU_Loss做的Bounding box損失函數(shù),選用此函數(shù)是因為該損失函數(shù)考慮了重疊面積、中心點距離、長寬比。Iou的缺點是當(dāng)Iou數(shù)值相等時,但存在預(yù)測框和目標框卻有不同的重疊情況。此外,Iou無法優(yōu)化目標框和預(yù)測框不相交的情況[4];GIOU_Loss存在的情況是當(dāng)預(yù)測框和目標框的差集是一樣的,但兩框位置不同,GIOU值相同,無法辨別兩框之間的相對位置[5];DIOU_Loss存在的問題是不能解決預(yù)測框和目標框中心點距離相同,但是不能區(qū)分兩框位置存在多種情況[6]。所以本算法使用CIOU_Loss,公式為:
CIOULoss=1-CIOU
(1)
其中參數(shù)v用來衡量預(yù)測框和目標框的長寬比一致性。
(2)
2.4.2 NMS非極大值抑制
在目標檢測的后續(xù)操作過程中,必須對一些目標檢測中關(guān)于目標錨框展開定量分析。一般來說,須要利用一定范圍內(nèi)的極大值為根據(jù),選出最有可能是目標真實邊界的錨框來達到單兵檢測的目標。
同時由于底層網(wǎng)絡(luò)架構(gòu)的損失函數(shù)涉及到計算推理過程中的冗余信息,影響檢測速度,所以本算法使用的基本架構(gòu)采用加權(quán)NMS的方式,對坐標進行加權(quán)平均,實現(xiàn)函數(shù)如下:
(3)
Bi∈{B|IoU(M,B)≥thresh}∪{M}
(4)
其中,Wi=Si·IoU(M,Bi),表示得分與IoU的乘積。
本算法的基本架構(gòu)主要通過網(wǎng)絡(luò)中參數(shù)設(shè)置,實施對網(wǎng)絡(luò)架構(gòu)的縱向和橫向的控制。其中depth_multiple參數(shù)負責(zé)調(diào)節(jié)底層網(wǎng)絡(luò)架構(gòu)的縱向,width_multiple參數(shù)負責(zé)神經(jīng)網(wǎng)絡(luò)架構(gòu)的橫向。
(1)底層YOLOv5網(wǎng)絡(luò)結(jié)構(gòu)
通過yolo.py中的代碼將網(wǎng)絡(luò)結(jié)構(gòu)中的depth_multiple,width_multiple提取出并賦值給gd,gw。
接下來將詳細分析參數(shù)怎樣調(diào)節(jié)神經(jīng)網(wǎng)絡(luò)架構(gòu)中的縱向和橫向。
2.5.1 網(wǎng)絡(luò)的深度
(1)不同縱向深度的網(wǎng)絡(luò)
本次使用的底層網(wǎng)絡(luò)架構(gòu)第二部分將使用CSP1結(jié)構(gòu),其中具體是依次在CSP中使用1、3、3個殘差組件;在第三部分使用CSP2結(jié)構(gòu),其中都是使用1個殘差組件。
(2)控制深度的代碼
控制底層網(wǎng)絡(luò)結(jié)構(gòu)縱向的核心內(nèi)容。主要是通過n和gd參與計算,進而控制底層網(wǎng)絡(luò)的縱向變化。
(3)檢驗調(diào)節(jié)網(wǎng)絡(luò)縱向的正確性
把控制縱向深度的第二個gd參數(shù)帶入到本次使用的底層網(wǎng)絡(luò)架構(gòu),檢測是否準確。其中控制網(wǎng)絡(luò)縱向深度的第一個參數(shù)由前面的數(shù)據(jù)得到,第二個參數(shù)設(shè)置為0.33。
以底層網(wǎng)絡(luò)第二部分使用的第二個CSP1為例。本次使用的CSP1結(jié)構(gòu)中,控制網(wǎng)絡(luò)縱向深度的第一個參數(shù)為9,第二個參數(shù)為0.33,將以上兩個參數(shù)帶入到控制縱向深度的代碼中進行運算,得到n為3,因此第二部分使用的第二個CSP1使用3個殘差組件,即CSP1_3。其余網(wǎng)絡(luò)框架中CSP結(jié)構(gòu)的殘差組件為相同推理過程。
2.5.2 網(wǎng)絡(luò)的寬度
在底層網(wǎng)絡(luò)架構(gòu)中,共使用了5個卷積核,每個卷積核的數(shù)量依次是32、64、128、256、512。
(1)不同橫向?qū)挾鹊木W(wǎng)絡(luò)
本次算法使用的底層網(wǎng)絡(luò)在圖像處理的各個階段使用得卷積核數(shù)目不相同,繼而將影響卷積后原始圖像特征圖的寬度,即網(wǎng)絡(luò)結(jié)構(gòu)的橫向。
在本算法的底層網(wǎng)絡(luò)架構(gòu)中,首先是經(jīng)過Focus結(jié)構(gòu)進行處理。此結(jié)構(gòu)中使用的卷積核數(shù)量是32個,在進行卷積操作之后,將初步獲得圖像的特征圖。接著進行第二次的卷積操作,本次卷積之后特征圖的大小將變小,但特征圖的厚度將增加,接下的卷積操作同理。此外在進行卷積操作時,使用比較多的卷積核數(shù)量,將會使表征能力的特征圖橫向長度不斷增加,即特征圖的寬度越寬,但最后算法通過網(wǎng)絡(luò)提取語義信息表征能力的特征圖能力就越強。
因為在圖像處理的各個階段使用得卷積核數(shù)目不相同,所以將影響底層網(wǎng)絡(luò)結(jié)構(gòu)和若干個一般卷積。同時因為在進行卷積操作時,卷積核的數(shù)量將發(fā)生變化,所以整體也將影響到靶標對單兵目標檢測的速度。
(2)控制寬度的代碼
在底層網(wǎng)絡(luò)架構(gòu)中,控制底層網(wǎng)絡(luò)結(jié)構(gòu)橫向的核心內(nèi)容是使用make_divisible子函數(shù),通過使用此函數(shù)來控制輸出通道數(shù),從而控制網(wǎng)絡(luò)的寬度,使通道數(shù)為8的整數(shù)倍。
(3)檢驗調(diào)節(jié)網(wǎng)絡(luò)橫向的正確性
本算法的底層網(wǎng)絡(luò)架構(gòu),將使用參數(shù)width_multiple調(diào)節(jié)網(wǎng)絡(luò)的橫向?qū)挾取⒃搮?shù)設(shè)為0.5,帶入到控制橫向?qū)挾鹊暮诵拇a中,進而控制網(wǎng)絡(luò)的橫向?qū)挾取?/p>
以第一個卷積下采樣為例,即根據(jù)底層網(wǎng)絡(luò)第二部分中的Focus知C2=64,由于width_multiple=0.5,所以推斷出在該下采樣中使用的卷積核數(shù)量。同理可以推斷出各個下采樣操作的過程中使用卷積核的數(shù)量[7]。
然后,將卷積操作后分割的圖片輸入到網(wǎng)絡(luò)中進行單兵的目標檢測,同時降低了針對小目標像素的下限,所以使用這種方法可以提高靶標針對遠小目標的準確度。
如果在軍事訓(xùn)練中不需要對單兵目標進行實時檢測,但需要檢測軍事小目標時可以運用此種方法進行檢測,進而增加靶標的應(yīng)用場景。
為滿足多場景不同訓(xùn)練中目標檢測的需要,選擇利用COCO數(shù)據(jù)集進行訓(xùn)練,最后根據(jù)訓(xùn)練對智能靶標的訓(xùn)練要求,檢測特定種類的目標,實現(xiàn)檢測的多樣性和靶標的推廣性。
COCO數(shù)據(jù)集是訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型重要的數(shù)據(jù)集,其中圖像包含幾十類目標,同時在30多萬張圖像中包含有20萬張有標注的圖像。在整個數(shù)據(jù)集中也包含150多萬個個體,含有25萬個有關(guān)鍵點的人,其中圖像主要是通過在日常生活中獲得,同時對于圖像中的各個目標也進行了精確的位置標注,所以該數(shù)據(jù)集有數(shù)量多、物體多、標注精確的特點。
該數(shù)據(jù)集在訓(xùn)練網(wǎng)絡(luò)的過程中,主要實現(xiàn)對目標物體的檢測。因為數(shù)據(jù)集中每一類物體的數(shù)據(jù)較多,可以實現(xiàn)對目標物體在不同場景中特征的訓(xùn)練學(xué)習(xí),完成在單兵模擬對抗中靶標系統(tǒng)在不同場景下的不同檢測需求。
本算法為滿足智能靶標等嵌入式激光模擬訓(xùn)練要求,所以選用輕量級通用上采樣算子。與其他上采樣方法相比,其他上采樣方法有一定的不足之處[8],具體分析如下:
第一種上采樣方法是最近鄰上采樣,這種采樣方法主要是通過圖像中像素點所在圖像的空間位置進行采樣核的確定,所以可以把這種采樣方式看成是均勻采樣,同時對像素點周圍區(qū)域的像素感知較少,導(dǎo)致這種采樣方式?jīng)]有使用圖像特征圖中的語義信息。
另一種采樣方式為Deconvolution上采樣,這樣采樣使用的采樣核是通過神經(jīng)網(wǎng)絡(luò)學(xué)出來的,并不是利用圖像像素之間的距離推理得到。所以在對圖像的特征圖進行采樣時,圖像特征圖中的每個像素位置都是通過同一個上采樣核進行采樣,這種方法不能利用到特征圖包含的內(nèi)容。此外,如果通過神經(jīng)網(wǎng)絡(luò)得到尺寸較大的采樣核時,將會使檢測的運算量大大增加,影響檢測速度。
Dynamic filte[9]采樣與第二種采樣方式不同的是將通過預(yù)測來對圖像特征圖中的每個位置產(chǎn)生一系列不同的上采樣核,所以這種方法的計算量將比第二種采樣方式更大,更加影響采樣的速度。
為改進目標檢測性能,本算法的上采樣算子需具備以下幾個特性。
上采樣算子可以更好的感受到特征圖像素周圍的信息,達到快速、準確的目標檢測,滿足靶標的性能要求;
這種方法可以彌補最近鄰上采樣不能使用圖像特征圖中的語義信息。本次使用的上采樣算子可以直接對輸入的圖像進行上采樣,使采樣核與特征圖中的信息建立聯(lián)系;
算子具有輕量化特點,為滿足最終在靶標系統(tǒng)上實現(xiàn)打擊功能,就不能引入過多的參數(shù)和計算量;
對圖像特征圖的上采樣在形式上就是將圖像的特征進行重新組合,所以對于輸出特征圖中的像素都可以根據(jù)上采樣的逆過程找到像素點在輸入特征圖中空間位置。
如以輸入特征圖中的一個像素為中心,將該點像素周圍的像素進行相加并和一個上采樣核進行點積操作就是上采樣操作。
特征上采樣算子的流程框圖如圖8所示,其可以實現(xiàn)輕量的對特征圖進行采樣,同時計算速度快,可以快速進行目標檢測,滿足單兵靶標的設(shè)計目標。
圖8 特征采樣流程
本次使用的上采樣算子主要分為兩個部分,其主要功能依次是預(yù)測上采樣核和重新組合特征圖中的特征。首先,設(shè)定上采樣的倍率為μ,然后輸入一個尺寸為X×Y×Z的特征圖,其次按照上采樣算子的第一個重要部分進行預(yù)測上采樣核操作,最后通過第二個模塊進行特征重新組合,得到新的尺寸為μX×μY×Z的特征圖。
(1)壓縮圖像通道
針對輸入尺寸為X×Y×Z的特征圖,為了降低圖像運算的計算量,提高上采樣核預(yù)測的速度,將對特征圖中的通道進行壓縮。本次將使用1×1卷積核對輸入的特征圖通道進行壓縮,壓縮后的通道數(shù)為Cm。
(2)預(yù)估上采樣核
假設(shè)上采樣核尺寸為sup×sup,同時需要注意越大的上采樣核意味著更大的感受野和更大的計算量,這將影響靶標檢測速度。
若要對輸出的特征圖中每一個像素位置分別使用多種不同的上采樣核,那么我們需要預(yù)測的上采樣核形狀為σX×σY×sup×sup。
因為在進行上采樣時已經(jīng)將輸入的特征圖通道進行了壓縮,因此可以使用mencoder×mencoder的卷積層進行上采樣核的預(yù)測,同時保證輸入的通道數(shù)為Cm。
(3)上采樣核歸一化
對第二步中得到的上采樣核利用softmax進行歸一化,使得卷積核權(quán)重和為1。具體上采樣核預(yù)測模塊流程,如圖9所示。
圖9 上采樣核預(yù)測模塊
首先向模塊中載入包含圖像特征的圖片,然后送入到模塊中進行處理,接著模塊將輸出處理之后的特征圖,最后將輸入與輸出進行比對,使輸出的特征圖像中包含的位置能夠映射到載入的特征圖。取出以之為中心的sup×sup的區(qū)域,和預(yù)測出的該點的上采樣核作點積,得到輸出值。同時雖然載入的圖像是多通道圖像,但是在完全相同的所在位置使用的上采樣核是互通共享的采樣核。
首先定義CARAFE模塊,添加到common.py中,然后將CARAFE寫入到y(tǒng)olo.py中,最后再配置網(wǎng)絡(luò)的相關(guān)文件,實現(xiàn)改進YOLOv5s采樣方法目標。
本文算法在Windows 10 家庭中文版操作系統(tǒng),采用基于YOLOv5神經(jīng)網(wǎng)絡(luò)架構(gòu),實現(xiàn)針對模擬訓(xùn)練系統(tǒng)靶標目標檢測的功能。實驗平臺利用CPU:Intel(R)Core(TM)i5-8250U CPU @ 1.60 GHz 1.80 GHz;內(nèi)存:8 GB。
為驗證算法的單兵目標檢測結(jié)果和符合實際作戰(zhàn)訓(xùn)練的需要,本文從俄烏沖突士兵交戰(zhàn)視頻、影視作品中找用于檢測的素材。在驗證中首先選擇單兵行動和運動過程中出現(xiàn)遮掩的情況,檢測結(jié)果如圖10、圖11所示。
圖10 運動單兵目標檢測
在另一組圖片中選擇以第一視角為主要檢測角度,同時保證目標距離靶標位置較遠,驗證對遠距離單兵目標檢測效果,檢測效果如圖12所示。
其次為驗證改進后的算法對目標檢測的速度,本文選擇改進算法的前后,保持硬件、檢測視頻長短保持一致,比較在算法在改進前后目標檢測的速度。算法改進前后對同一時長的視頻進行目標檢測的時長結(jié)果見圖13與圖14,通過圖13和圖14算法改進前后的時長比較表明:目標檢測速度提高22.89 %。
圖13 算法改進前目標檢測時長
圖14 算法改進后目標檢測時長
本文根據(jù)軍事訓(xùn)練的相關(guān)要求,提出一種基于Yolov5網(wǎng)絡(luò)架構(gòu)下,通過改進底層網(wǎng)絡(luò)結(jié)構(gòu)和采樣算子提高單兵目標檢測精度和速度的算法,該算法在改進之后目標檢測速度整體提升22.89 %,可以快速進行目標檢測,當(dāng)目標距離較遠或目標出現(xiàn)遮擋時,能夠檢測到目標,滿足軍事訓(xùn)練的要求。此外,檢測模塊將輸出各個目標中心點的位置并在圖像中進行顯示標記,用于根據(jù)發(fā)射器姿態(tài)和目標地理位置調(diào)整激光發(fā)射器姿態(tài)。
此外,該算法具有輕量化特點,滿足嵌入式激光模擬訓(xùn)練的要求。相比于一般的目標檢測算法,該算法極大的提高在模擬訓(xùn)練中對目標檢測的速度和精度,給實兵交戰(zhàn)模擬系統(tǒng)中智能靶標裝置的目標檢測功能提供一種解決方案。