何明 ,朱梓涵,,翟緒龍 ,翟政 ,郝程鵬
?目標(biāo)特性與探測(cè)跟蹤技術(shù)?
基于多分支上下文融合的空對(duì)地目標(biāo)檢測(cè)算法*
何明1,朱梓涵1,2,翟緒龍2,翟政1,郝程鵬3
(1.陸軍工程大學(xué) 指揮控制工程學(xué)院,江蘇 南京 210007; 2.聯(lián)勤保障部隊(duì)沈陽聯(lián)勤保障中心,遼寧 沈陽 110000;3.中國科學(xué)院聲學(xué)研究所,北京 100190)
無人機(jī)的智能應(yīng)用是當(dāng)下研究的熱點(diǎn),為實(shí)現(xiàn)高效實(shí)時(shí)的無人機(jī)對(duì)地目標(biāo)檢測(cè),提出了一種應(yīng)用于邊緣設(shè)備的輕量級(jí)空對(duì)地目標(biāo)檢測(cè)算法MBCF-YOLO。引入深度可分離卷積,優(yōu)化原有的骨干網(wǎng)絡(luò)。在頸部網(wǎng)絡(luò)中添加嵌入循環(huán)注意力機(jī)制的小目標(biāo)檢測(cè)分支,提高對(duì)小微目標(biāo)的檢測(cè)精度和特征融合的能力。將焦點(diǎn)損失函數(shù)與損失秩挖掘結(jié)合,改進(jìn)原有的損失函數(shù),以改善空對(duì)地?cái)?shù)據(jù)集的數(shù)據(jù)失衡問題。對(duì)該算法模型進(jìn)行了多組對(duì)照實(shí)驗(yàn)以及實(shí)機(jī)應(yīng)用,結(jié)果表明,與當(dāng)前其他算法相比,MBCF-YOLO算法在VisDrone2021數(shù)據(jù)集上的準(zhǔn)確性和延遲之間實(shí)現(xiàn)了更好的平衡。
空對(duì)地目標(biāo)檢測(cè);網(wǎng)絡(luò)輕量化;循環(huán)注意力機(jī)制;小目標(biāo)檢測(cè);特征融合
近年來,無人集群技術(shù)在軍事領(lǐng)域得到了廣泛應(yīng)用,作為實(shí)現(xiàn)戰(zhàn)場(chǎng)互聯(lián)的高效節(jié)點(diǎn)[1],無人駕駛飛行器(unmanned aerial vehicle,UAV)因其機(jī)動(dòng)靈活且戰(zhàn)場(chǎng)生存能力強(qiáng)的優(yōu)勢(shì),成為研究的熱點(diǎn)。在2022年2月末爆發(fā)的俄烏軍事沖突中,大量無人機(jī)直接介入偵察遙感、斬首打擊、毀傷評(píng)估等任務(wù)[2],取得了不俗戰(zhàn)果,使得軍用無人機(jī)在戰(zhàn)場(chǎng)之外得到了更多的關(guān)注。引入機(jī)器視覺等新興傳感技術(shù),可進(jìn)一步發(fā)掘UAV的軍事應(yīng)用潛力,由此催生的空對(duì)地目標(biāo)檢測(cè)任務(wù)是當(dāng)前研究的熱點(diǎn)問題[3],該任務(wù)可將UAV的拍攝對(duì)象(人員,車輛,建筑物等)進(jìn)行定位和分類,實(shí)現(xiàn)后續(xù)的目標(biāo)評(píng)估及毀傷打擊。
國內(nèi)外研究者致力于設(shè)計(jì)高效的目標(biāo)檢測(cè)框架結(jié)構(gòu),如單階段全卷積模型FCOS[4]、無錨框輕量化模型Nanodet[5]、YOLO-RET[6]等,然而此類模型多是基于COCO、VOC等通用數(shù)據(jù)集進(jìn)行訓(xùn)練,對(duì)于空對(duì)地目標(biāo)檢測(cè)這一特定場(chǎng)景仍存在兩方面的現(xiàn)實(shí)問題:
(1) 硬件成本問題?,F(xiàn)有算法模型網(wǎng)絡(luò)層數(shù)較多,參數(shù)量較大,而無人機(jī)所搭載的邊緣設(shè)備由于功耗限制,計(jì)算能力有限,要達(dá)到實(shí)時(shí)高精度的空對(duì)地目標(biāo)檢測(cè)仍存在一定難度。
(2) 前背景的不平衡。具體表現(xiàn)為目標(biāo)尺度的不平衡和樣本的不平衡,在空對(duì)地目標(biāo)檢測(cè)數(shù)據(jù)集Visdrone2021中,同種類別的物體在不同背景中尺寸變化較大,不同類別的物體樣本數(shù)量也并不均衡,模型難以對(duì)所有前景對(duì)象進(jìn)行訓(xùn)練,以致影響檢測(cè)精度。為解決上述問題,本文在YOLOv5模型的基礎(chǔ)上重新設(shè)計(jì)適用于無人機(jī)設(shè)備的多分支上下文融合算法MBCF-YOLO(multi-branch context fusion YOLO),以實(shí)現(xiàn)高效實(shí)時(shí)的空對(duì)地目標(biāo)檢測(cè)。所做主要工作概括如下:
(1) 針對(duì)無人機(jī)設(shè)備算力有限的問題,引入深度可分離卷積(depthwise separable convolution)和詞干采樣模塊(StemBlock),重新搭建輕量化的骨干網(wǎng)絡(luò),優(yōu)化推理速度保證特征提取能力,實(shí)現(xiàn)實(shí)時(shí)檢測(cè)。
(2) 針對(duì)小微目標(biāo)檢測(cè)困難以及物體尺度變化大的問題,在不改變輸入圖像分辨率,添加了小尺度目標(biāo)檢測(cè)頭分支,用于放大感受野內(nèi)的特征圖。為了均衡模型參數(shù)和預(yù)測(cè)精度,設(shè)計(jì)了即插即用的上下文信息融合模塊,用于改進(jìn)模型頸部網(wǎng)絡(luò)的特征融合性能。
(3) 針對(duì)樣本數(shù)量不均衡的問題,結(jié)合焦點(diǎn)損失和損失秩挖掘,構(gòu)造新的損失函數(shù),用來均衡訓(xùn)練過程中不同類別樣本的學(xué)習(xí)損失,消除樣本數(shù)量差異造成的偏向性,從而學(xué)習(xí)到更為本質(zhì)的特征。
當(dāng)前關(guān)于目標(biāo)檢測(cè)輕量化方面的研究主要是針對(duì)模型的網(wǎng)絡(luò)結(jié)構(gòu)。國內(nèi)外學(xué)者通過引入逐點(diǎn)卷積、分組卷積等方式降低運(yùn)算量,提出了Mobilenet[7]、GhostNet[8]和ShuffleNet[9]等一系列表現(xiàn)優(yōu)異的輕量化網(wǎng)絡(luò)模型,但參數(shù)的減少容易造成語義特征信息的丟失,因此需要頸部網(wǎng)絡(luò)對(duì)不同階段提取的特征圖進(jìn)行再處理,實(shí)現(xiàn)感受野之間的信息聚合。
在無人機(jī)圖像中,大范圍的覆蓋區(qū)域往往包含復(fù)雜多樣的背景,而卷積神經(jīng)網(wǎng)絡(luò)在進(jìn)行特征提取時(shí),僅針對(duì)當(dāng)前感受野內(nèi)的像素,很難提取到上下文語義信息和全局特征,近些年注意力機(jī)制在計(jì)算機(jī)視覺任務(wù)中表現(xiàn)出優(yōu)異的性能,如卷積注意力[10](convolutional block attention module,CBAM)、通道注意力[11](channel attention,CA)、坐標(biāo)注意力(coordinate attention,CA)[12]等機(jī)制,在獲取全局信息方面有不俗效果。
如圖1所示,本文所提MBCF-YOLO的整體框架,可分為輕量化骨干網(wǎng)絡(luò)、上下文融合的頸部網(wǎng)絡(luò)和多分支檢測(cè)頭3部分。
圖1 MBCF-YOLO算法框架圖
實(shí)踐表明,骨干網(wǎng)絡(luò)是提取數(shù)據(jù)特征的關(guān)鍵組件,因此設(shè)計(jì)一個(gè)輕量高效的骨干網(wǎng)絡(luò)至關(guān)重要,如圖2所示,改進(jìn)后的骨干網(wǎng)絡(luò)首先通過詞干采樣模塊進(jìn)行雙重下采樣,將兩個(gè)分支的輸出按通道維度進(jìn)行拼接,通過堆疊的深度可分離卷積模塊對(duì)特征圖的通道逐一運(yùn)算,而后使用1×1點(diǎn)卷積對(duì)不同特征圖在相同位置上的信息進(jìn)行加權(quán)操作,從而保證最終輸出的特征圖在尺度縮小后仍具備足夠的語義信息。
圖2 骨干網(wǎng)絡(luò)示意圖
在COCO數(shù)據(jù)集中以32像素×32像素和96像素×96像素為標(biāo)準(zhǔn),將圖像中的物體分為小、中、大目標(biāo)。因此在無人機(jī)目標(biāo)檢測(cè)數(shù)據(jù)集VisDrone2021中有60%以上的檢測(cè)對(duì)象為小目標(biāo)。
為提高算法對(duì)小物體的檢測(cè)精度,本文設(shè)計(jì)了多分支上下文融合機(jī)構(gòu),核心思想是在頸部網(wǎng)絡(luò)中增加小目標(biāo)檢測(cè)分支,采樣更大的特征圖并用更小的錨框進(jìn)行檢測(cè),降低背景的影響。同時(shí)為了保證精簡后網(wǎng)絡(luò)的信息提取能力,在分支中添加循環(huán)自注意力算法以保證檢測(cè)精度,該算法具體流程如下。
綜上所述,本文所提的RCA模塊其計(jì)算流程如算法1所示。
算法1:RCA模塊
#根據(jù)得到的權(quán)重更新特征圖
在VisDrone2021圖像數(shù)據(jù)集中,不同類別目標(biāo)的數(shù)量并不均衡,如行人類別樣本數(shù)量為79 337,而三輪車類別樣本數(shù)量為4 812。原有YOLOv5損失函數(shù)很難處理此類長尾分布[13]問題。為解決該問題,本文將焦點(diǎn)損失函數(shù)[14]和損失秩挖掘[15]結(jié)合,使網(wǎng)絡(luò)更加關(guān)注樣本較少的類別。
由于MBCF-YOLO在頸部網(wǎng)絡(luò)添加了檢測(cè)小微目標(biāo)的多分支檢測(cè)頭,因此在訓(xùn)練階段將改進(jìn)后的損失函數(shù)應(yīng)用于多分支檢測(cè)頭,使其適用于4種不同尺度檢測(cè)對(duì)象的特征映射。
本文采用VisDrone2021數(shù)據(jù)集[15],用來驗(yàn)證所提MBCF-YOLO算法的綜合性能。該數(shù)據(jù)集共8 629張圖像,圖像種類有10類,分別為:行人、自行車、人、汽車、卡車、敞篷三輪車、三輪車、面包車、摩托車、公交車。數(shù)據(jù)集的分配比例是訓(xùn)練集6 471張、驗(yàn)證集548張、測(cè)試集1 610張。
本文實(shí)驗(yàn)在Windows10 X64操作系統(tǒng)下進(jìn)行,CPU為Intel i9 10900K@3.20GHz,GPU為NVIDIA RTX3090@24GB,內(nèi)存為32GB,語言環(huán)境為Python 3.8.5,在深度學(xué)習(xí)框架Pytorch 1.8.0下進(jìn)行訓(xùn)練。具體的訓(xùn)練參數(shù)設(shè)置為:訓(xùn)練時(shí)輸入圖像大小為640×640,批處理量(Batchsize)為16,為防止模型過擬合,訓(xùn)練輪數(shù)(Epochs)為100,優(yōu)化方式選擇隨機(jī)梯度下降(SGD),初始學(xué)習(xí)率為0.01,采用Mosaic操作進(jìn)行數(shù)據(jù)增強(qiáng)。
實(shí)驗(yàn)采用mAP、模型推理速度GFLOPs等作為模型性能的評(píng)價(jià)指標(biāo)。其中mAP值是指在多類目標(biāo)檢測(cè)中根據(jù)每個(gè)類的準(zhǔn)確率和召回率所得到的平均精度指標(biāo),是目標(biāo)檢測(cè)任務(wù)的通用評(píng)價(jià)指標(biāo)。
(1) 網(wǎng)絡(luò)模型對(duì)比實(shí)驗(yàn)
為了更好地比較本文所提MBCF-YOLO算法的綜合性能,選取規(guī)模大小近似的5種網(wǎng)絡(luò)模型:YOLOv5-Nano、YOLOX-Tiny、YOLOv7-Tiny、Faster R-CNN-1xFPN、RetinaNet-ResNet18進(jìn)行對(duì)比實(shí)驗(yàn),最終結(jié)果如表1所示。
結(jié)果顯示,由于VisDrone2021數(shù)據(jù)集包含的小微目標(biāo)數(shù)量較多,傳統(tǒng)的單階段目標(biāo)檢測(cè)算法如RetinaNet-Resnet18的性能表現(xiàn)并不是很好,在測(cè)試集上的mAP值僅有17.7%。而采用無錨框機(jī)制的YOLOX-Tiny算法在測(cè)試集上的mAP值為16.8%,對(duì)小微目標(biāo)的檢測(cè)效果一般。YOLOv7-Tiny算法采用了模型縮放等增強(qiáng)機(jī)制,因此檢測(cè)精度值最高,但其優(yōu)秀的性能表現(xiàn)也需要更高的推理速度。對(duì)比來看,本文所提的MBCF-YOLO算法在推理速度僅有2.9GFLOPs的情況下,mAP值達(dá)到了22.3%,在參數(shù)量、計(jì)算量與檢測(cè)精度之間實(shí)現(xiàn)較好平衡。
表1 不同網(wǎng)絡(luò)性能對(duì)比
(2) 消融實(shí)驗(yàn)
為了驗(yàn)證本文所提出的各個(gè)模塊的實(shí)際作用,本文設(shè)置了6組消融實(shí)驗(yàn)。具體的設(shè)置細(xì)節(jié)為:實(shí)驗(yàn)組1作為對(duì)照基線,為原有YOLOv5模型進(jìn)行網(wǎng)絡(luò)結(jié)構(gòu)精簡后的模型;實(shí)驗(yàn)組2、3、4為單模塊對(duì)比實(shí)驗(yàn),分別在實(shí)驗(yàn)1的基礎(chǔ)上添加損失秩挖掘函數(shù)、RCA模塊和小目標(biāo)檢測(cè)分支;實(shí)驗(yàn)組5在添加小目標(biāo)檢測(cè)分支的基礎(chǔ)上融入RCA模塊,實(shí)驗(yàn)組6繼續(xù)添加改進(jìn)的損失函數(shù),最終結(jié)果如表2所示。
1) 損失函數(shù)改進(jìn)分析
表2 消融實(shí)驗(yàn)組性能對(duì)比
圖3 損失下降對(duì)比圖
2) RCA模塊性能分析
實(shí)驗(yàn)組3在添加RCA模塊后,性能有了較為明顯的提升,為進(jìn)一步分析該模塊作用,本文對(duì)實(shí)驗(yàn)組1和實(shí)驗(yàn)組3不同推理階段的特征圖進(jìn)行可視化。如圖4所示,在模型的骨干網(wǎng)絡(luò)階段(階段0及階段1),二者的特征圖差距不大,均可以提取出圖像的淺層特征(顏色、邊緣等)。但在特征提取的后期階段,添加了RCA模塊的實(shí)驗(yàn)組3可以更好地抽象出圖像的高級(jí)語義特征,與之相比實(shí)驗(yàn)組1則丟失了很多特征信息(階段4)。
3) 小目標(biāo)檢測(cè)分支性能分析
添加小目標(biāo)檢測(cè)分支的實(shí)驗(yàn)組4性能提升最為明顯,說明該模塊對(duì)于模型精度的貢獻(xiàn)率大。圖5為實(shí)驗(yàn)組4與實(shí)驗(yàn)組1對(duì)于同一張輸入圖片的檢測(cè)結(jié)果,可以看出小目標(biāo)檢測(cè)分支的添加提高了模型對(duì)小微目標(biāo)的檢測(cè)能力。
圖4 可視化對(duì)比圖
圖5 小目標(biāo)檢測(cè)結(jié)果對(duì)比圖
圖6為消融實(shí)驗(yàn)的P-R曲線圖,實(shí)驗(yàn)組5、6在逐步添加上述模塊后并未取得等效的性能提升,這是由于模型自身結(jié)構(gòu)限制,性能提升有限,但將3種模塊集成到精簡后的目標(biāo)檢測(cè)網(wǎng)絡(luò)模型后,mAP值提升了近一倍,進(jìn)一步驗(yàn)證了本文工作的有效性。
圖6 P-R曲線對(duì)比圖
(3) 實(shí)機(jī)應(yīng)用
為驗(yàn)證本文所提算法的實(shí)際效果,將模型在圖7所示的實(shí)機(jī)平臺(tái)進(jìn)行驗(yàn)證,首先通過OPENVINO部署工具應(yīng)用到Intel J1900工控平臺(tái),使用Intel NCS算力擴(kuò)展設(shè)備加速,并由無人機(jī)進(jìn)行視頻采集,并通過Qt前端界面實(shí)時(shí)顯示,最終效果如圖8所示。
圖7 實(shí)機(jī)實(shí)驗(yàn)平臺(tái)
圖8 實(shí)機(jī)運(yùn)行效果對(duì)比圖
圖8b)為原有YOLOv5s網(wǎng)絡(luò)模型的運(yùn)行結(jié)果,其FPS值僅為11。而本文所提的MBCF-YOLO算法其FPS值為23,說明優(yōu)化后的算法運(yùn)行速度可滿足實(shí)際應(yīng)用需求。
本文提出了一種用于無人機(jī)實(shí)時(shí)檢測(cè)的空對(duì)地目標(biāo)檢測(cè)算法MBCF-YOLO。該算法首先針對(duì)骨干網(wǎng)絡(luò)進(jìn)行優(yōu)化改進(jìn),以提高其運(yùn)行速度,為保證檢測(cè)精度,在頸部網(wǎng)絡(luò)層添加了小目標(biāo)檢測(cè)分支和循環(huán)注意機(jī)制。進(jìn)一步改進(jìn)損失函數(shù),以解決數(shù)據(jù)集分布失衡問題。在VisDrone2021數(shù)據(jù)集驗(yàn)證算法性能,結(jié)果表明,小目標(biāo)檢測(cè)分支對(duì)算法性能的提升最為明顯,循環(huán)注意機(jī)制以及改進(jìn)的損失函數(shù)對(duì)檢測(cè)精度也有一定正向影響。最后,將MBCF-YOLO算法進(jìn)行實(shí)際部署,進(jìn)一步驗(yàn)證了該方法的可用性。
[1] LI Kai, NI Wei, TOVAR E, et al. Joint Flight Cruise Control and Data Collection in UAV-Aided Internet of Things: An Onboard Deep Reinforcement Learning Approach[J]. IEEE Internet of Things Journal, 2021, 8(12): 9787-9799.
[2] 禹明剛, 陳瑾, 何明, 等. 基于演化博弈的社團(tuán)網(wǎng)絡(luò)無人集群協(xié)同機(jī)制[J]. 中國科學(xué)(技術(shù)科學(xué)), 2023, 53(2): 221-242.
YU Minggang, CHEN Jin, HE Ming, et al. Cooperative Evolution Mechanism of Multiclustered Unmanned Swarm on Community Networks[J]. Scientia Sinica(Technologica), 2023, 53(2): 221-242.
[3] 王文慶, 龐穎, 劉洋, 等. 雙重注意機(jī)制的空對(duì)地目標(biāo)智能檢測(cè)算法[J]. 現(xiàn)代防御技術(shù), 2020, 48(6): 81-88.
WANG Wenqing, PANG Ying, LIU Yang, et al. Air-to-Ground Target Intelligent Detection Algorithm Based on Dual Attention Mechanism[J]. Modern Defence Technology, 2020, 48(6): 81-88.
[4] TIAN Zhi, SHEN Chunhua, CHEN Hao, et al. FCOS: Fully Convolutional One-Stage Object Detection[C]∥2019 IEEE/CVF International Conference on Computer Vision (ICCV). Piscataway, NJ, USA: IEEE, 2019: 9626-9635.
[5] LIU Jianguo, CHEN Yingzhi, YAN Fuwu, et al. Vision-Based Feet Detection Power Liftgate with Deep Learning on Embedded Device[J]. Journal of Physics: Conference Series, 2022, 2302(1): 012010.
[6] GANESH P, CHEN Yao, YANG Yin, et al. YOLO-ReT: Towards High Accuracy Real-time Object Detection on Edge GPUs[C]∥2022 IEEE/CVF Winter Conference on Applications of Computer Vision (WACV). Piscataway, NJ, USA: IEEE, 2022: 1311-1321.
[7] CHEN Yinpeng, DAI Xiyang, CHEN Dongdong, et al. Mobile-Former: Bridging MobileNet and Transformer[C]∥2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ, USA: IEEE, 2022: 5260-5269.
[8] HAN Kai, WANG Yunhe, TIAN Qi, et al. GhostNet: More Features from Cheap Operations[C]∥2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ, USA: IEEE, 2020: 1577-1586.
[9] MA Ningning, ZHANG Xiangyu, ZHENG Haitao, et al. ShuffleNet V2: Practical Guidelines for Efficient CNN Architecture Design[C]∥Computer Vision-ECCV 2018. Cham: Springer International Publishing, 2018: 122-138.
[10] WOO S, PARK J, LEE J Y, et al. CBAM: Convolutional Block Attention Module[C]∥Computer Vision – ECCV 2018. Cham: Springer International Publishing, 2018: 3-19.
[11] GAO Ruxin, WANG Tengfei. Motion Deblurring Algorithm for Wind Power Inspection Images Based on Ghostnet and SE Attention Mechanism[J]. IET Image Processing, 2023, 17(1): 291-300.
[12] HOU Qibin, ZHOU Daquan, FENG Jiashi. Coordinate Attention for Efficient Mobile Network Design[C]∥2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ, USA: IEEE, 2021: 13708-13717.
[13] JIN S Y, ROYCHOWDHURY A, JIANG Huaizu, et al. Unsupervised Hard Example Mining from Videos for Improved Object Detection[C]∥Computer Vision-ECCV 2018. Cham: Springer International Publishing, 2018: 316-333.
[14] WANG Xiaolong, SHRIVASTAVA A, GUPTA A. A-Fast-RCNN: Hard Positive Generation via Adversary for Object Detection[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ, USA: IEEE, 2017: 3039-3048.
[15] YU Hao, ZHANG Zhaoning, QIN Zheng, et al. Loss Rank Mining: A General Hard Example Mining Method for Real-Time Detectors[C]∥2018 International Joint Conference on Neural Networks (IJCNN). Piscataway, NJ, USA: IEEE, 2018: 1-8.
Air-to-Ground Target Detection Algorithm Based on Multi-branch Context Fusion
HEMing1,ZHUZihan1,2,ZHAIXulong2,ZHAIZheng1,HAOChengpeng3
(1.Command & Control Engineering College, Army Engineering University of PLA, Nanjing 210007, China;2.Joint Service Support Force Shenyang Joint Service Support Center, Shenyang 110000, China;3.Institute of Acoustics, Chinese Academy of Sciences, Beijing 100190, China)
The intelligent application of unmanned aerial vehicles (UAVs) is a hot topic in current research. To achieve efficient and real-time air-to-ground target detection for UAVs, this paper proposes a lightweight MBCF-YOLO model for air-to-ground target detection . First, a deep separable convolution to redesign an efficient and lightweight backbone network is introduced. Then, a small target detection branch with embedded recursive attention mechanism is added to the neck network to improve the detection accuracy of small targets and the ability of feature fusion. Finally, the focus loss function is combined with loss rank mining to improve the original loss function to overcome the data imbalance problem of air-to-ground datasets. Several control experiments and real machine applications have been conducted on this algorithm model, and the results show that compared with other current algorithms, the MBCF-YOLO algorithm achieves a better balance between accuracy and latency on the VisDrone 2021 dataset.
air to ground target detection;network lightweight;circulatory attention mechanism;small target detection;feature fusion
2023 -03 -30 ;
2023 -05 -17
江蘇省重點(diǎn)研發(fā)計(jì)劃資助項(xiàng)目(BE2021729,SBE2021710041)
何明(1978-),男,新疆石河子人。教授,博士,研究方向?yàn)橛?jì)算機(jī)視覺,大數(shù)據(jù)等。
通信地址:210007 江蘇省南京市秦淮區(qū)御道街標(biāo)營2號(hào)陸軍工程大學(xué) E-mail:heming@aeu.edu.cn
10.3969/j.issn.1009-086x.2023.03.011
V279+.2;TN957.51;TJ8
A
1009-086X(2023)-03-0091-08
何明, 朱梓涵, 翟緒龍, 等.基于多分支上下文融合的空對(duì)地目標(biāo)檢測(cè)算法[J].現(xiàn)代防御技術(shù),2023,51(3):91-98.
Reference format:HE Ming,ZHU Zihan,ZHAI Xulong,et al.Air-to-Ground Target Detection Algorithm Based on Multi-branch Context Fusion[J].Modern Defence Technology,2023,51(3):91-98.