亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于YOLOv5的紅外目標(biāo)檢測(cè)算法*

        2022-08-27 12:21:00張巍巍
        飛控與探測(cè) 2022年3期
        關(guān)鍵詞:特征檢測(cè)模型

        林 健,張巍巍,張 凱,楊 堯

        (1.西北工業(yè)大學(xué) 無(wú)人系統(tǒng)技術(shù)研究院·西安·710000;2.上海航天控制技術(shù)研究所·上?!?01109)

        0 引 言

        目標(biāo)檢測(cè)是機(jī)器視覺(jué)領(lǐng)域最具挑戰(zhàn)性的任務(wù)之一,在現(xiàn)實(shí)世界中有著深遠(yuǎn)的意義。在自動(dòng)駕駛、導(dǎo)航制導(dǎo)等任務(wù)中,要求檢測(cè)算法能夠在各種照明和環(huán)境條件(包括白天、夜間、雨中、霧中等)下都具有魯棒性。然而在這些情況下,基于可見(jiàn)光的系統(tǒng)一般無(wú)法發(fā)揮作用,導(dǎo)致上述任務(wù)無(wú)法完成,紅外成像系統(tǒng)通過(guò)接收目標(biāo)的熱輻射成像,對(duì)復(fù)雜天氣、光照情況有較強(qiáng)的適應(yīng)性,可以全天候工作,探測(cè)距離遠(yuǎn)。同時(shí)相較于可見(jiàn)光數(shù)據(jù)的采集,紅外數(shù)據(jù)擁有更強(qiáng)的隱私保護(hù)性,在當(dāng)前人們對(duì)隱私保護(hù)越來(lái)越重視的背景下,足以獲得更多的學(xué)習(xí)數(shù)據(jù),用于優(yōu)化模型。

        紅外成像系統(tǒng)具有上述全天候、遠(yuǎn)距離、抗干擾的特性,被廣泛地應(yīng)用在民用、軍用領(lǐng)域。雖然紅外目標(biāo)檢測(cè)跟蹤算法的需求日益增長(zhǎng),但是紅外圖像普遍存在紋理信息差、低分辨率、高噪聲的特點(diǎn),對(duì)目標(biāo)原有的灰度信息破壞嚴(yán)重,給紅外目標(biāo)檢測(cè)算法帶來(lái)嚴(yán)峻挑戰(zhàn)。經(jīng)典的目標(biāo)檢測(cè)算法模板匹配、HOG-SVM,以及當(dāng)前主流的深度學(xué)習(xí)算法等,在設(shè)計(jì)之初都是針對(duì)可見(jiàn)光圖像,在目標(biāo)細(xì)節(jié)、特征明顯的RGB圖像上可以獲得較好的性能,但在紅外圖像目標(biāo)檢測(cè)上,算法性能均有不同程度下降。

        基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法——YOLO,在學(xué)術(shù)界和工業(yè)界都取得了許多顯著的成果,下面簡(jiǎn)要介紹YOLO系列算法的發(fā)展歷程。J.Redmon等在2015年6月提出了YOLOv1算法,該算法不僅具有良好的識(shí)別性能,而且具有較高的實(shí)時(shí)性。此外,該算法具有良好的泛化能力,易于訓(xùn)練,收斂速度較快。在接下來(lái)的5年里,YOLO算法得到了更新,5個(gè)版本融合了目標(biāo)檢測(cè)社區(qū)的許多創(chuàng)新想法。在前3個(gè)版本中,YOLOv3是一個(gè)里程碑,通過(guò)引入多尺度特征(Feature Pyramid Networks,F(xiàn)PN)、更好的骨干網(wǎng)絡(luò)(Darknet53)以及將Softmax分類(lèi)損失函數(shù)替換為L(zhǎng)ogic損失函數(shù),在性能和速度方面取得了較大改進(jìn)。2020年初,在原YOLO作者從研究領(lǐng)域離開(kāi)之后,YOLOv4由不同的研究團(tuán)隊(duì)發(fā)布。YOLOv4團(tuán)隊(duì)對(duì)YOLO算法的幾乎所有方面進(jìn)行了探索,改進(jìn)了主干網(wǎng)絡(luò),以及提出了很多在目標(biāo)檢測(cè)領(lǐng)域?qū)嵱玫募记?。YOLOv4在Tesla V100上以65 FPS的實(shí)時(shí)速度實(shí)現(xiàn)了MSCOCO數(shù)據(jù)集65.7%的平均準(zhǔn)確率。1個(gè)月后,另一個(gè)不同的研究團(tuán)隊(duì)發(fā)布了YOLOv5,該算法具有更小的模型尺寸、更快的速度、與YOLOv4相似的性能,以及在Python中的完整實(shí)現(xiàn),使得YOLOv5在目標(biāo)檢測(cè)社區(qū)得到了廣泛關(guān)注。

        為解決紅外圖像普遍存在的紋理信息差、低分辨率、高噪聲帶來(lái)的檢測(cè)難題,本文改進(jìn)了YOLOv5算法的特征提取網(wǎng)絡(luò),選擇了具有殘差特性的ResNet50網(wǎng)絡(luò)。針對(duì)紅外場(chǎng)景中存在大量的小目標(biāo),避免過(guò)大采樣率導(dǎo)致目標(biāo)被過(guò)濾,改進(jìn)了YOLOv5檢測(cè)頭方案,使用了更為密集的特征融合網(wǎng)絡(luò)提升檢測(cè)效果。本文的主要工作如下:

        1)構(gòu)建了基于ResNet50的骨干特征提取網(wǎng)絡(luò),改進(jìn)了YOLOv5的3個(gè)檢測(cè)頭方案,增加了下樣率為4的檢測(cè)頭。

        2)重新設(shè)計(jì)了特征融合網(wǎng)絡(luò),提出了一個(gè)Detection Block模塊,提升了紅外目標(biāo)的檢測(cè)能力,同時(shí)獲得了較小的模型參數(shù)。

        3)在FLIR紅外自動(dòng)駕駛數(shù)據(jù)集上,相比原始的YOLOv5m模型,在平均精度上提升4%。

        1 算法描述

        本文提出了一種基于YOLOv5的紅外目標(biāo)檢測(cè)算法(Target Detection Based on YOLOv5, YOLOv5-IF),具體結(jié)構(gòu)如圖1所示。本文所提算法和現(xiàn)有的大多數(shù)目標(biāo)檢測(cè)算法一致,結(jié)構(gòu)上分為三部分:特征提取(Backbone),特征整合(Neck),檢測(cè)頭(Head)。輸入的紅外圖像,經(jīng)過(guò)特征提取網(wǎng)絡(luò)得到目標(biāo)不同尺度上的語(yǔ)義信息,并將特征圖(FeatureMap)劃分為不同大小的網(wǎng)格。同時(shí),紅外圖像經(jīng)過(guò)特征提取網(wǎng)絡(luò)之后,特征信息被映射在不同尺度的特征圖上,紅外圖像中存在大量的小目標(biāo),而過(guò)大的采樣率會(huì)導(dǎo)致目標(biāo)特征經(jīng)多次采樣之后難以在特征圖上體現(xiàn)。出于這方面的考慮,增加了下采樣率為4的特征輸出。在Neck部分將前一級(jí)得到的特征信息進(jìn)一步加工處理,利用FPN和路徑聚合網(wǎng)絡(luò)(Path Aggregation Network,PAN)實(shí)現(xiàn)不同尺度特征信息的融合。網(wǎng)絡(luò)的最后一部分為Head,即輸出預(yù)測(cè)部分,利用卷積層得到前級(jí)特征圖上每一網(wǎng)格內(nèi)包含目標(biāo)信息(目標(biāo)位置,置信度)的預(yù)測(cè)值。這些預(yù)測(cè)值為事先設(shè)定的錨框的調(diào)整參數(shù),在后處理部分根據(jù)網(wǎng)絡(luò)的輸出信息對(duì)預(yù)先設(shè)定的錨框做相應(yīng)的調(diào)整,最后通過(guò)非極大抑制(Non-Maximum Suppression,NMS)操作得到最可能包含目標(biāo)的預(yù)測(cè)框。

        圖1 YOLOv5-IF算法總體框圖Fig.1 The architecture of YOLOv5-IF

        1.1 YOLOv5算法

        這一部分簡(jiǎn)要分析YOLOv5算法的改進(jìn)之處,以及YOLOv5算法在解決紅外圖像識(shí)別上存在的問(wèn)題。

        (1)YOLOv5改進(jìn)點(diǎn):

        基于錨框目標(biāo)檢測(cè)算法的先天不足,導(dǎo)致了正負(fù)樣本不均衡,為了緩解這種缺陷帶來(lái)的問(wèn)題,研究者提出了Focal LOSS等算法。YOLOv5在算法設(shè)計(jì)時(shí)提供了另一種解決思路,通過(guò)采用跨鄰域網(wǎng)格匹配,有效增加了正樣本數(shù)量,使得YOLOv5算法整體的精度得到了巨大提升,具體邊界框回歸公式為式(1),式(2)為YOLOv2、v3、v4回歸公式。

        (1)

        (2)

        式中,、、、為目標(biāo)真實(shí)的中心點(diǎn)坐標(biāo)以及寬高;、為目標(biāo)中心所屬網(wǎng)格的左上角坐標(biāo)值;、為預(yù)設(shè)錨框的寬高值;、、、為算法輸出的錨框的中心點(diǎn)及寬高的調(diào)整值;為Sigmoid函數(shù)。

        (2)不足之處:

        Focus模塊:YOLOv5創(chuàng)新性地引入了一個(gè)全新的模塊Focus,具體的實(shí)現(xiàn)流程為:將特征圖切分為4份,每份數(shù)據(jù)量都是相當(dāng)于2倍下采樣得到的,然后在通道維度進(jìn)行拼接。這種操作可以在不增加計(jì)算量的同時(shí)使得特征圖減半,通道增加4倍。相比采用最大池化或步長(zhǎng)為2的卷積操作,F(xiàn)ocus模塊帶來(lái)的計(jì)算量更小,對(duì)YOLOv5的快速推理起到了重要作用。然而,由于Focus會(huì)造成圖像上的空洞,這種操作必然會(huì)導(dǎo)致圖像信息的丟失,對(duì)于紅外圖像中的小目標(biāo)檢測(cè)是不利的, 因此在本文中拋棄了這種結(jié)構(gòu)。

        SPP模塊:YOLOv4中提出了一個(gè)全新的SPP,在經(jīng)典的SPP模塊中,特征地圖在進(jìn)行多尺度最大池化之后被轉(zhuǎn)換為一維向量。新的SPP將3個(gè)尺寸為××5124的特征圖分別使用∈(5,9,13)的池化核池化,再將輸入特征圖與池化后的特征圖相連形成××2048的特征圖。有效避免了在3個(gè)尺度最大池化的情況下丟失圖像的重要特征,輸入不僅提取了使訓(xùn)練更容易的重要特征,而且保持了空間維度。大量的實(shí)驗(yàn)證明,SPP模塊能有效提升可見(jiàn)光圖像的檢測(cè)率,因此這種結(jié)構(gòu)在YOLOv5中也被保留了下來(lái)。Qi D.等提出了針對(duì)小目標(biāo)可采用較小的池化核,然而在針對(duì)紅外圖像的測(cè)試中,不論是原始的池化核還是采用較小的池化核,對(duì)于檢測(cè)結(jié)果都沒(méi)有提升,因此在本文中拋棄了這種結(jié)構(gòu)。

        1.2 YOLOv5-IF算法

        基于上述分析,本文針對(duì)YOLOv5算法在解決紅外目標(biāo)識(shí)別方面的不足,提出了一種改進(jìn)的YOLOv5-IF算法。原始的YOLOv5中,沿用了YOLOv3版本中的骨干網(wǎng)絡(luò)CSPDarkNet53作為特征提取網(wǎng)絡(luò), CSP 跨階段連接受殘差連接啟發(fā),在不同層之間實(shí)現(xiàn)特征復(fù)用,在實(shí)際測(cè)試中發(fā)現(xiàn)CSPDarkNet53并不能很好地提升紅外圖像中目標(biāo)的特征信息?;跉埐钸B接的ResNet網(wǎng)絡(luò)可以解決深層模型梯度消失的問(wèn)題,同時(shí)加入了一定的正則項(xiàng)可以加速模型收斂,一定程度上也減少了模型參數(shù)。針對(duì)紅外圖像存在的分辨率低、細(xì)節(jié)特征不明顯、高噪聲等問(wèn)題,本文選擇ResNet50作為特征提取網(wǎng)絡(luò)。

        為了提升算法對(duì)紅外小目標(biāo)的檢測(cè)能力,本文在骨干網(wǎng)絡(luò)上增加了4倍下采樣的特征圖,即輸入圖像為416×416時(shí),對(duì)應(yīng)特征圖大小為104×104,依舊采用每個(gè)網(wǎng)格生成3個(gè)先驗(yàn)錨框的策略。這種情況下,會(huì)給輸出增加104×104×3=32448個(gè)預(yù)測(cè)結(jié)果,相比原始的(13×13×3+26×26×3+52×52×3=10647)增加了3倍之多。為了解決這一問(wèn)題,必然需要一個(gè)輕量高效的Neck。本文將Neck部分拆分為FPN和PAN兩部分,具體結(jié)構(gòu)如圖2所示。圖中(∈(2,3,4,5))為骨干網(wǎng)絡(luò)輸出的不同下采樣倍率的特征圖,上采樣通過(guò)線性插值實(shí)現(xiàn),特征疊加則是在通道維度上合并特征圖,卷積操作均為1×1卷積用于調(diào)節(jié)特征圖通道,Head(∈(1,2,3,4))對(duì)應(yīng)不同尺度的檢測(cè)頭,同時(shí)替換原始的CSPBottleNet為更高效的Detection Block,在不影響模型精度的情況下,極大縮減了模型規(guī)模,結(jié)構(gòu)如圖3所示。

        (a) FPN模塊網(wǎng)絡(luò)結(jié)構(gòu)

        (b) PAN模塊網(wǎng)絡(luò)結(jié)構(gòu)圖2 Neck模塊網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 Neck module network structure

        圖3 Detection Block模塊Fig.3 Detection Block module

        Detection Block設(shè)計(jì)之初就是為了得到一個(gè)輕量化的網(wǎng)絡(luò),同時(shí)能夠有效融合紅外目標(biāo)的特征,將目標(biāo)從背景中凸顯出來(lái),如圖3所示。具體實(shí)現(xiàn)流程為:對(duì)輸入的特征圖通過(guò)兩個(gè)卷積實(shí)現(xiàn)通道減半,其中一側(cè)首先會(huì)經(jīng)過(guò)一個(gè)卷積和Leak Relu激活函數(shù),接著通過(guò)兩個(gè)堆疊的Conv Block模塊,該模塊使用了卷積加深度可分離卷積的配置,如圖4所示,借助深度可分離卷積,在保證不影響感受野的同時(shí),極大減小了模型參數(shù),其中卷積核大小為3,步長(zhǎng)為2;另一側(cè)則采用了卷積加Leak Relu激活函數(shù)的配置,形成了一個(gè)殘差連接。

        圖4 Conv Block模塊Fig.4 Conv Block module

        本文在骨干網(wǎng)絡(luò)上增加了一個(gè)輸出,對(duì)應(yīng)4倍下采樣的特征圖,經(jīng)過(guò)上述的Neck部分融合,最終得到預(yù)期的4檢測(cè)頭檢測(cè)結(jié)構(gòu),有效提升了紅外弱小目標(biāo)的檢測(cè)能力。

        4倍下采樣的檢測(cè)頭能夠輸出細(xì)粒度更高的特征圖,并準(zhǔn)確保留紅外圖像上的小目標(biāo)特征信息。各個(gè)檢測(cè)頭的輸出可視化如圖5所示,將各個(gè)檢測(cè)頭輸出得分和類(lèi)別融合后,可以看到更高細(xì)粒度的檢測(cè)頭能關(guān)注到圖像中的弱小目標(biāo)。

        圖5 檢測(cè)頭熱圖Fig.5 Heat map of detection head

        2 實(shí)驗(yàn)及結(jié)果分析

        2.1 實(shí)驗(yàn)設(shè)置及評(píng)價(jià)指標(biāo)

        本文使用FLIR提供的紅外場(chǎng)景數(shù)據(jù)集。該數(shù)據(jù)集是在美國(guó)加利福尼亞州圣塔芭芭拉市的街道和高速公路上拍攝的,包括從5月~11月不同時(shí)間的各種天氣變化,例如霧和雨。圖像的背景包括城市、山脈、隧道、樹(shù)木、建筑物等,背景比較復(fù)雜。訓(xùn)練集共包含7659幅紅外場(chǎng)景圖像,采用COCO數(shù)據(jù)格式進(jìn)行標(biāo)注。類(lèi)別包括人、自行車(chē)、汽車(chē)和狗。本次實(shí)驗(yàn)僅選取人、自行車(chē)、汽車(chē)作為檢測(cè)目標(biāo),其中行人22356個(gè)、自行車(chē)3986輛、汽車(chē)41247輛,共67589個(gè)目標(biāo),圖6展示了不同類(lèi)別的目標(biāo)占比分布。測(cè)試集包含1360幅紅外場(chǎng)景圖像,包括5579個(gè)行人、471輛自行車(chē)、5432輛汽車(chē),共計(jì)11482個(gè)目標(biāo)。數(shù)據(jù)集的目標(biāo)尺度分布如圖7所示,其中目標(biāo)的寬高比為目標(biāo)高/寬與圖像高/寬的比值。由圖8可見(jiàn),數(shù)據(jù)集中包含了大量小目標(biāo),同時(shí)場(chǎng)景中目標(biāo)的模糊程度不同,增加了檢測(cè)的難度。

        圖6 目標(biāo)占比分布Fig.6 Target proportion distribution

        圖7 目標(biāo)尺度分布圖Fig.7 Target scale distribution map

        圖8 部分?jǐn)?shù)據(jù)集樣例Fig.8 Part of the sample datasets

        網(wǎng)絡(luò)訓(xùn)練時(shí)采用了如下配置:Batch-Size為16,采用Adam優(yōu)化器,初始學(xué)習(xí)速率為0.01,訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)均采用FLIR提供的訓(xùn)練和驗(yàn)證集。使用YOLOv5提供的數(shù)據(jù)增強(qiáng)策略,采用NVIDIAGTFORCE 1080TI顯卡,pytorch 1.8深度學(xué)習(xí)框架,操作系統(tǒng)為Ubuntu20.04,共訓(xùn)練100個(gè)Epoch。對(duì)數(shù)據(jù)集采用K-means聚類(lèi)算法得到了4組錨框,分別為:[9,10,10,19,17,14],[13,29,26,21,18,44],[40,31,30,70,60,45],[92,66,55,120,142,105]。

        本文通過(guò)平均準(zhǔn)確率(mean Average Precision,mAP),即各個(gè)類(lèi)別的平均值(Average Precision,AP)來(lái)評(píng)價(jià)算法的性能,在計(jì)算mAP之前首先需要計(jì)算查準(zhǔn)率(Precision)和召回率(Recall)。查準(zhǔn)率是實(shí)際是正樣本且模型預(yù)測(cè)也是正樣本數(shù)量與模型所有預(yù)測(cè)的正樣本數(shù)量的比值。令代表實(shí)際的正樣本,模型預(yù)測(cè)也是正樣本的數(shù)量;代表實(shí)際的負(fù)樣本,但預(yù)測(cè)是正樣本的數(shù)量。計(jì)算精度的公式為

        (3)

        召回率是實(shí)際為正且正確預(yù)測(cè)的樣本數(shù)量與所有實(shí)際為正樣本的數(shù)量之比。令代表實(shí)際的正樣本但模型預(yù)測(cè)的是負(fù)樣本,召回率的公式為

        (4)

        AP的計(jì)算公式如下

        (5)

        mAP就是不同種類(lèi)的AP求平均值,mAP0.5表示預(yù)測(cè)框與真值框的交并比(Intersection-over-Union,IoU)大于等于0.5情況下準(zhǔn)確預(yù)測(cè)的概率;mAP 0.5 0.95表示預(yù)測(cè)框與真值框的IoU大于等于0.5小于等于0.95情況下準(zhǔn)確預(yù)測(cè)的概率均值。

        YOLOv5的損失函數(shù)包括:分類(lèi)損失(classification loss)、定位損失( localization loss)(預(yù)測(cè)邊界框與真實(shí)框之間的誤差)、置信度損失(confid-ence loss)。因此,總的損失函數(shù)為: classification loss+localization loss+confidence loss。YOLOv5使用二元交叉熵?fù)p失函數(shù)計(jì)算類(lèi)別概率和目標(biāo)置信度得分的損失。圖9和圖10分別展示了訓(xùn)練過(guò)程中各種損失(loss)和評(píng)價(jià)指標(biāo)的變化趨勢(shì)。

        圖9 Loss變化曲線Fig.9 Loss curve

        圖10 評(píng)價(jià)指標(biāo)變化曲線Fig.10 Curve of evaluation

        2.2 消融實(shí)驗(yàn)

        為了驗(yàn)證所提的4檢測(cè)頭方案、Detection Block,設(shè)計(jì)了如下消融實(shí)驗(yàn)。如表1所示,√表示當(dāng)前網(wǎng)絡(luò)中包含此模塊或改進(jìn),×表示當(dāng)前網(wǎng)絡(luò)中不包含此模塊,↑表示該指標(biāo)越大越好,↓表示該指標(biāo)越小越好,紅色代表算法表現(xiàn)最佳,藍(lán)色表示算法表現(xiàn)最差。使用mAP和模型參量作為評(píng)價(jià)指標(biāo)。模型的訓(xùn)練參數(shù)配置參照2.1節(jié)的實(shí)驗(yàn)設(shè)置。

        正如表1所示,僅僅在模型上增加輸出對(duì)YOLOv5m的檢測(cè)精度并無(wú)明顯提升。同時(shí)由于在骨干網(wǎng)絡(luò)上增加輸出,導(dǎo)致輸出結(jié)果增加3倍之多,使得模型的檢測(cè)速度下降。因此,替換了原始的CSPDarkNet53,采用ResNet50作為特征提取網(wǎng)絡(luò),使得檢測(cè)精度和推理速度得到了提升。由表1可見(jiàn),Detection Block模塊的加入不僅使得模型精度提升,而且模型規(guī)模得到了縮減,這對(duì)于后續(xù)部署模型工業(yè)化應(yīng)用是十分有利的。

        表1 消融實(shí)驗(yàn)Tab.1 Ablation experiments

        圖11展示了消融實(shí)驗(yàn)中不同模塊的檢測(cè)效果圖,分別是小目標(biāo)、行人遮擋、多尺度變化等場(chǎng)景, 可以看到V5-IF(圖中綠色框線算法)相比其他算法出現(xiàn)誤檢的情況最少。

        圖11 消融實(shí)驗(yàn)效果圖Fig.11 Effect of ablation experiment

        2.3 對(duì)比實(shí)驗(yàn)

        選取了當(dāng)前主流的目標(biāo)檢測(cè)算法CenterNet、SSD、EfficientDet、YOLOv5m、Faster R-CNN,在FLIR數(shù)據(jù)集上進(jìn)行測(cè)試,對(duì)比結(jié)果如表2所示。以上算法均訓(xùn)練100Epoch,紅色、藍(lán)色分別對(duì)應(yīng)算法結(jié)果最優(yōu)和次優(yōu),F(xiàn)PS為每秒處理圖像幀數(shù)。

        表2 SOTA算法對(duì)比結(jié)果圖Tab.2 Comparison results of SOTA methods

        如表2所示,改進(jìn)的YOLOv5-IF算法相比最新的YOLOv5m算法能夠保證一定運(yùn)行實(shí)時(shí)性,同時(shí)在mAP檢測(cè)精度上提升了4%,模型參數(shù)量減少了68%?;贏nchor-Free的CenterNet使用了ResNet50作為特征提取網(wǎng)絡(luò),但在模型規(guī)模和檢測(cè)精度上都不及YOLOv5-IF。SSD算法中引入了多尺度檢測(cè)頭,但是沒(méi)有加入FPN和PANet,因此沒(méi)有實(shí)現(xiàn)尺度融合,檢測(cè)效率也表現(xiàn)一般。兩階段的目標(biāo)檢測(cè)算法Faster R-CNN,在推理速度上明顯低于其他算法。

        3 結(jié) 論

        本文針對(duì)通用目標(biāo)檢測(cè)算法在紅外場(chǎng)景下的不足,考慮到紅外圖像普遍存在的低分辨率、高噪聲、低對(duì)比度以及小目標(biāo)等問(wèn)題,提出了一種YOLOv5-IF算法,主要?jiǎng)?chuàng)新點(diǎn)有:

        1)使用了ResNet50作為骨干特征提取網(wǎng)絡(luò),該骨干網(wǎng)絡(luò)基于殘差機(jī)制構(gòu)建,實(shí)現(xiàn)了特征圖通道信息的高效交互,能夠更加有效地獲取紅外圖像中的目標(biāo)信息,得到更加豐富的語(yǔ)義信息。同時(shí)考慮到紅外圖像中存在大量小目標(biāo)的問(wèn)題,在Backbone上增加了一個(gè)輸出,并由此構(gòu)建了一個(gè)4檢測(cè)頭的算法,使得模型的檢測(cè)精度得到了提升。

        2)考慮到模型規(guī)模對(duì)模型在邊緣移動(dòng)設(shè)備部署和推理速度的影響,提出了一個(gè)高效特征整合網(wǎng)絡(luò),通過(guò)構(gòu)建Detection Block模塊,使得模型的檢測(cè)精度得到了小范圍提升,同時(shí)獲得了更小的模型規(guī)模。最后在紅外自動(dòng)駕駛數(shù)據(jù)集FLIR上,與現(xiàn)有SOTA算法進(jìn)行對(duì)比,本文所提算法的mAP為74%,參數(shù)量?jī)H19.5MB,優(yōu)于現(xiàn)有的算法。

        YOLOv5-IF算法在精度和參數(shù)量方面取得了較好的效果,同時(shí)也存在一些問(wèn)題:由于4檢測(cè)頭的引入,輸出結(jié)果的增加導(dǎo)致模型的推理速度并不是最優(yōu),如何均衡算法精度和模型推理速度是后續(xù)研究的重點(diǎn)方向,同時(shí)模型在邊緣設(shè)備上的部署問(wèn)題也是后續(xù)的研究方向。

        猜你喜歡
        特征檢測(cè)模型
        一半模型
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        3D打印中的模型分割與打包
        狠狠亚洲婷婷综合色香五月| 波多野结衣久久精品99e| 午夜无码片在线观看影视| 免费一区二区三区在线视频| 亚洲一区二区三区在线中文| 亚洲av在线观看播放| 成人亚洲一区二区三区在线| 亚洲一区av无码少妇电影| 久久精品国产72国产精福利 | 精品国产一区二区三区久久狼| 亚洲av在线播放观看| 亚洲性av少妇中文字幕| 日本一卡二卡3卡四卡免费观影2022| 免费无码又爽又刺激聊天app| 正在播放淫亚洲| 99久久精品人妻一区二区三区 | 午夜黄色一区二区不卡| 国产午夜视频在线观看免费| 精品国产午夜理论片不卡| 久久精品一品道久久精品9| 国产日本精品一区二区| 中文区中文字幕免费看| 成人无码免费一区二区三区| 日本少妇被爽到高潮的免费| 亚洲97成人精品久久久 | 亚洲片一区二区三区| 国产自拍伦理在线观看| 国产裸拍裸体视频在线观看| 最新亚洲精品国偷自产在线| 国产黑色丝袜在线观看视频| 中文字幕人乱码中文字幕乱码在线| 少妇愉情理伦片丰满丰满| 四虎影视永久在线精品| 人妻少妇av中文字幕乱码免费| 国产av一卡二卡日韩av| 一本色道久久88精品综合| 夜夜春精品视频| 国产精品一区二区黄色片| 中文字幕免费在线观看动作大片 | 一区二区免费国产a在亚洲| 人妻夜夜爽天天爽三区丁香花|