亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        改進(jìn)YOLOv5s的無人機(jī)目標(biāo)檢測算法

        2023-01-13 11:57:24宋譜怡茍浩波
        關(guān)鍵詞:特征實(shí)驗(yàn)檢測

        宋譜怡,陳 紅,茍浩波

        1.西安工業(yè)大學(xué) 電子信息工程學(xué)院,西安 710021

        2.陜西凌云電器集團(tuán)有限公司 衛(wèi)星導(dǎo)航研究所,陜西 寶雞 721006

        交通問題一直是困擾世界各國的一大難題,交通擁擠不僅會造成一定的社會問題還會進(jìn)一步加重環(huán)境問題,造成嚴(yán)重的經(jīng)濟(jì)損失。為了緩解經(jīng)濟(jì)高速發(fā)展給交通運(yùn)輸業(yè)帶來的壓力,近幾年世界各國都進(jìn)一步加強(qiáng)了對智能交通的研究和管理[1]。目標(biāo)檢測作為其關(guān)鍵且最基礎(chǔ)的一環(huán)顯得尤為重要,將采用靈活度較高,成本較低的無人機(jī)來實(shí)現(xiàn)路面交通信息采集,作為交通路況處理的一個重要依據(jù)。在一定水平上減少了公路交通管理方式的弊端,擴(kuò)大了道路交通監(jiān)控器的監(jiān)控時間和范圍,進(jìn)一步加強(qiáng)智能交通系統(tǒng)的建設(shè)促進(jìn)我國交通業(yè)的發(fā)展[1-2]。

        傳統(tǒng)的目標(biāo)檢測算法檢測流程過于繁雜,嚴(yán)重影響目標(biāo)檢測的效率,已逐漸推出主流舞臺?;谏疃葘W(xué)習(xí)的目標(biāo)檢測算法逐漸顯示出其優(yōu)勢,YOLO(you only look once)作為one-stage detection的開山之作在2015年首次被提出[3-4]。最新推出的YOLOv5s算法在模型參數(shù)量和浮點(diǎn)運(yùn)算量方面表現(xiàn)更加突出[5-9]。

        近幾年,對于YOLOv5s的改進(jìn)主要是在輸入端、特征提取網(wǎng)絡(luò)以及Head輸出層。由于在無人機(jī)視角下檢測目標(biāo)呈較小形態(tài)且目標(biāo)背景較為復(fù)雜,針對這一情況文獻(xiàn)[10]提出了一種自適應(yīng)特征增強(qiáng)的目標(biāo)檢測網(wǎng)絡(luò)(YOLO-AFENet)來提高算法對小目標(biāo)的檢測率。在YOLOv5s原算法的基礎(chǔ)上融合特征融合因子,設(shè)計(jì)了改進(jìn)的自適應(yīng)雙向特征融合模塊(M-BiFPN),提高網(wǎng)絡(luò)的特征表達(dá)能力。但是其模型的損失函數(shù)設(shè)計(jì)未考慮到數(shù)據(jù)集長尾分布的特點(diǎn)、對于大目標(biāo)的檢測性能提升不夠明顯。為了提升檢測器識別效果,文獻(xiàn)[11]提出將注意力模塊CBAM與YOLOv5s網(wǎng)絡(luò)的Neck部分融合,從而提高網(wǎng)絡(luò)的特征提取能力,但其算法計(jì)算量過大對于邊緣設(shè)備十分不友好,因此還存在一定的改進(jìn)空間。文獻(xiàn)[12-13]提出的基于連續(xù)兩幀間差分法的動態(tài)檢測等方法使得無人機(jī)可以在復(fù)雜背景下快速準(zhǔn)確地檢測目標(biāo),但該方法對識別精度的提升不夠明顯。文獻(xiàn)[14]提出一種超輕量型的目標(biāo)檢測網(wǎng)絡(luò),并提出在其頸部網(wǎng)絡(luò)上進(jìn)行改進(jìn),對檢測頭部錨框進(jìn)行重新設(shè)計(jì),縮小對檢測錨框的設(shè)定,使其更適應(yīng)對于小目標(biāo)的檢測。文獻(xiàn)[15]針對目標(biāo)檢測中的漏檢、誤檢等問題提出在特征提取網(wǎng)絡(luò)中添加注意力機(jī)制,并且構(gòu)建了一種可以和卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行端到端訓(xùn)練的注意力模塊盡可能減少訓(xùn)練過程中中的損耗,最后在區(qū)域建議網(wǎng)絡(luò)中用Soft-NMS替換傳統(tǒng)非極大值抑制算法,從而降低算法漏檢提高定位精度。從YOLO算法的發(fā)展可以看出,利用算法進(jìn)行檢測時,不斷完善網(wǎng)絡(luò)特征融合結(jié)構(gòu),以及利用多尺度特征圖作預(yù)測對算法性能的改進(jìn)都有一定幫助?;谒惴ǜ镄掳l(fā)展以及現(xiàn)應(yīng)用需求本文提出一種基于YOLOv5s的改進(jìn)目標(biāo)檢測算法,通過添加壓縮-激勵模塊以及對其頸部輸出通道改進(jìn),并對損失函數(shù)進(jìn)行替換,從而有效提高了算法性能。

        1 YOLOv5s目標(biāo)檢測算法

        YOLOv5s屬于單階段目標(biāo)檢測算法,其在YOLOv4的基礎(chǔ)上添加了一些新的改進(jìn)方法,對算法的性能提升提供了很大的幫助。其主要包含四部分:輸入端、基準(zhǔn)網(wǎng)絡(luò)、Neck網(wǎng)絡(luò)、Head輸出層。

        (1)輸入端:檢測圖片輸入。通常輸入圖像大小為640×640,該階段首先對圖像進(jìn)行預(yù)處理,即將輸入圖片縮放到網(wǎng)絡(luò)的輸入大小,進(jìn)行灰度處理等操作。在網(wǎng)絡(luò)訓(xùn)練時,算法使用Mosaic數(shù)據(jù)增強(qiáng)方法進(jìn)一步提高模型的訓(xùn)練速率和檢測精度,并新增自適應(yīng)錨框計(jì)算與自適應(yīng)圖片縮放方法。

        (2)基準(zhǔn)網(wǎng)絡(luò):通常是一些優(yōu)質(zhì)的分類器網(wǎng)絡(luò),該模塊用來提取一些常用的特征表現(xiàn)。YOLOv5s中主干網(wǎng)絡(luò)采用CSPDarknet53結(jié)構(gòu),使用Focus結(jié)構(gòu)作為其基準(zhǔn)網(wǎng)絡(luò)。

        (3)Neck結(jié)構(gòu):位于基準(zhǔn)網(wǎng)絡(luò)和主干網(wǎng)絡(luò)之間,利用它可以進(jìn)一步提升特征的提取能力。雖然YOLOv5s同樣用到了SPP模塊、FPN+PAN模塊,但是實(shí)現(xiàn)的方法不同。YOLOv4的Neck結(jié)構(gòu)中采用的普通卷積操作,YOLOv5s中采用CSP2結(jié)構(gòu)在某種程度上增強(qiáng)其網(wǎng)絡(luò)特征融合能力。

        (4)Head輸出端:目標(biāo)檢測結(jié)果的輸出通道。不同的檢測算法,輸出端的通道數(shù)也不同,通常包括一個分類分支和一個回歸分支。YOLOv5s采用的GIoU Loss損失函數(shù),使得算法精確度得到進(jìn)一步改善。YOLOv5s基本網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

        圖1 YOLOv5s網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.1 Network structure diagram of YOLOv5s

        2 算法改進(jìn)

        2.1 融入通道注意力機(jī)制

        注意力機(jī)制(attention mechanism)首次被提出來自于人類視覺的研究,在人們的精神認(rèn)知中,會主動去關(guān)注一部分信息,同時也會忽略其他可視的信息[16]。深度學(xué)習(xí)中的注意力機(jī)制與人類視覺的注意力機(jī)制相似,即從眾多信息中把注意力集中在重要的點(diǎn)上,挑出重要信息,忽略其他不重要的信息[17]。因此通過融入通道注意力機(jī)制,可以更好地解決環(huán)境帶來的干擾從而提高檢測精確度。

        雖然目前很多研究提出將通道注意力和空間注意力兩者結(jié)合起來使用效果更好,但是這樣會增加額外的運(yùn)算量,影響其檢測速率。另外,神經(jīng)網(wǎng)絡(luò)的感受范圍是通過卷積操作來提高的,很大一部分融入的是空間注意力機(jī)制,基于以上兩點(diǎn)考慮,本文提出融合通道注意力的YOLOv5s檢測網(wǎng)絡(luò)。

        通道注意力經(jīng)典的代表就是SENet(squeeze and excitation network),因此本文引入其中的壓縮-激勵模塊,其目的在于通過建立特征通道之間相互依賴的關(guān)系,增強(qiáng)有用信息的特征,在處理階段提高這些特征的利用率并抑制無用的信息特征。

        如圖2所示,壓縮操作采用了全局平均池化來壓縮輸入通道的特征層,對特征圖u壓縮空間維度后的結(jié)果如公式(1)所示:

        圖2 壓縮激勵模塊結(jié)構(gòu)圖Fig.2 Structure diagram of compression excitation module

        其中,zc表示第c個特征的一維向量值;h和w分別表示特征圖的兩個維度。激勵操作會學(xué)習(xí)通道間的非線性相互作用,首先通過全連接層將特征維度降低到輸入的1/16,然后通過ReLU激活函數(shù)增加非線性,再通過一個全連接層恢復(fù)到原來的特征層,瓶頸結(jié)構(gòu)由兩個全連接層共同組成,用來預(yù)測通道間的相關(guān)性,最后通過Sigmoid函數(shù)獲得歸一化權(quán)重。激勵操作的表達(dá)式如(2)所示。

        其中,σ指Sigmoid函數(shù),δ為ReLU函數(shù),g(z,w)表示兩個全連接層構(gòu)成的瓶頸結(jié)構(gòu),w1的維度為×c,w2的維度為c,r是一個縮放參數(shù)。

        在壓縮和激勵操作完成后,通過公式(3)所示將乘法逐通道加權(quán)到原來的特征上。

        這樣就將通道注意力模塊添加到了目標(biāo)檢測網(wǎng)絡(luò)中,對于提高無人機(jī)的檢測精度在一定程度上會有所幫助。

        2.2 引入雙錐臺特征網(wǎng)絡(luò)結(jié)構(gòu)

        為了使提高算法對復(fù)雜背景下小目標(biāo)的檢測能力,本文引入LIU等人提出的改進(jìn)FPN的輸出通道數(shù)值,使其經(jīng)過FPN的特征融合之后,輸出通道為[138,225,138]。但由于無人機(jī)拍攝圖像的角度、高度、抖動等問題,導(dǎo)致目標(biāo)呈現(xiàn)尺寸較小以及拍攝背景雜亂,通道的特征圖組包含所提取的目標(biāo)信息有限,從而使訓(xùn)練后所得到的模型檢測效果較差[18]。為了提高檢測網(wǎng)絡(luò)對于小目標(biāo)的檢測精確度,本文引入雙錐臺特征融合(bifrustum feature fusion,BFF)結(jié)構(gòu),傳統(tǒng)金字塔特征融合結(jié)構(gòu)和本文的雙錐臺特征融合結(jié)構(gòu)的對比圖,如圖3所示。

        圖3 雙錐臺特征融合結(jié)構(gòu)Fig.3 Characteristic fusion structure of double-cone platform

        為了檢測圖像中不同尺度的目標(biāo),本文選擇5、6、7層的特征層,將三層不同大小的特征圖組傳輸?shù)筋i部進(jìn)行網(wǎng)絡(luò)特征融合。

        淺層特征圖包含的細(xì)節(jié)信息較多,但是由于被檢測的車輛目標(biāo)較小,即使使用225通道的特征進(jìn)行融合,其包含的可用目標(biāo)信息仍然不足以檢測出足夠有用信息,為了既減少模型計(jì)算量,又不降低檢測精度,本文選擇使用138通道的C5特征圖;C7特征層包含較多的特征信息,經(jīng)過特征融合包含的可用信息較多,為了更好提取目標(biāo)特征信息,故選擇138通道輸入下一層;而C6層特征圖,不但包括細(xì)節(jié)信息,還包括圖像的語義信息,相比C5和C7層可獲得的特征信息更全面,因此225通道的特征信息傳至檢測頭部網(wǎng)絡(luò)。

        在原有特征網(wǎng)絡(luò)的基礎(chǔ)上,雙錐臺特征融合結(jié)構(gòu)更巧妙地利用了各特征提取層之間相互聯(lián)系,提取出包含語義信息較多的特征層進(jìn)行通道擴(kuò)展處理,方便網(wǎng)絡(luò)提取到識別任務(wù)中需要的有效信息,盡可能減小干擾信息對目標(biāo)識別精確度的影響。且選擇性地進(jìn)行通道擴(kuò)展,對于模型參數(shù)大小來說影響甚微,從而避免算法訓(xùn)練過程中不必要的運(yùn)算,在保證算法檢測精確度的同時盡量提高其檢測速度。

        實(shí)驗(yàn)結(jié)果驗(yàn)證,經(jīng)此改進(jìn)所得到的特征融合方式,無人機(jī)對復(fù)雜背景下的小目標(biāo)檢測精度得到進(jìn)一步的提升。

        2.3 損失函數(shù)改進(jìn)

        YOLOv5s采用GIoU Loss做bounding box的損失函數(shù),使用二進(jìn)制交叉熵(BCE)和Logits損失函數(shù)計(jì)算類概率和目標(biāo)得分的損失[19]。

        GIoU Loss在原函數(shù)的基礎(chǔ)上引進(jìn)預(yù)測框和真實(shí)框的最小外接矩形。

        GIoU公式:

        式中,IoU表示邊界框(predicted box,PB)和真實(shí)邊界框(ground truth,GT)的交并比,Ac表示將PB和GT同時包含的最小的矩形框的面積,u表示PB和GT的并集,LGIoU為GIoU損失。當(dāng)兩框完全重合時取最小值0,當(dāng)兩框的邊外切時,損失函數(shù)值為1;當(dāng)兩框分離且距離很遠(yuǎn)時,損失函數(shù)值為2。使用外接矩形的方法不僅可以反映重疊區(qū)域的面積,還可以計(jì)算非重疊區(qū)域的比例,因此GIoU損失函數(shù)能更好地反映真實(shí)框和預(yù)測框的重合程度和遠(yuǎn)近距離。

        但是GIoU Loss包含時計(jì)算得到的IoU、GIoU數(shù)值相等,損失函數(shù)值與IoU Loss一樣,無法很好地衡量其相對的位置關(guān)系。同時在計(jì)算過程中出現(xiàn)上述情況,預(yù)測框在水平或垂直方向優(yōu)化困難,導(dǎo)致收斂速度慢。而CIoU Loss在針對上述問題考慮了以下三點(diǎn)分別是覆蓋面積、中心點(diǎn)距離和長寬比,如下公式:

        式中b和bgt表示PB和GT的中心點(diǎn),ρ2(·)表示求歐式距離,c表示PB和GT的最小包圍框的最短對角線長度,α表示一個正平衡參數(shù),ν表示PB和GT的長寬比的一致性。α和ν的定義如公式(8)、(9):

        其中wgt、hgt和w、h分別表示GT和PB的寬度和高度。

        相比YOLOv5s中使用的GIoU Loss,CIoU Loss在損失項(xiàng)中加入了PB、GT中心距離和長寬比例的懲罰項(xiàng),使網(wǎng)絡(luò)在訓(xùn)練時可以保證預(yù)測框更快地收斂,并且得到更高的回歸定位精度,本文將CIoU Loss作為車輛檢測網(wǎng)絡(luò)的損失函數(shù)。

        3 實(shí)驗(yàn)與分析

        3.1 數(shù)據(jù)集處理

        (1)數(shù)據(jù)集篩選

        本課題主要針對智能交通系統(tǒng)中的車輛進(jìn)行視頻采集,由于自采數(shù)據(jù)受限,因此本課題采用目前公開的數(shù)據(jù)集。根據(jù)本課題需求對目前公開的無人機(jī)拍攝視頻圖像進(jìn)行篩選重建。選取的無人機(jī)拍攝數(shù)據(jù)集有VIVID數(shù)據(jù)集、VisDrone-2019數(shù)據(jù)集、VOC2007數(shù)據(jù)集以及自己采集圖像,共計(jì)11 260張,所有數(shù)據(jù)都采用PASCALVOC格式進(jìn)行標(biāo)注,其中80%用于訓(xùn)練,20%用于測試。數(shù)據(jù)集中包含各種交通場景,包括高速公路、十字路口、丁字路口,不同的環(huán)境背景,包括白天、夜晚、霧霾天、雨天。該類數(shù)據(jù)集滿足實(shí)驗(yàn)訓(xùn)練的需求,更好地實(shí)現(xiàn)無人機(jī)對地面小目標(biāo)的檢測。數(shù)據(jù)集示例如圖4所示。

        圖4 數(shù)據(jù)集示例Fig.4 Dataset example

        (2)數(shù)據(jù)集標(biāo)注

        將采集的無人機(jī)拍攝圖像按照算法模型的需求,使用Labeling軟件對圖片進(jìn)行標(biāo)注,均標(biāo)注保存為PASCAL VOC格式。將圖中出現(xiàn)的小轎車均標(biāo)注為car標(biāo)簽;將圖中出現(xiàn)的出租車標(biāo)注為taxi標(biāo)簽;將卡車均標(biāo)注為truck標(biāo)簽;將公交車標(biāo)注為bus標(biāo)簽。具體標(biāo)注如圖5所示。

        圖5 數(shù)據(jù)集標(biāo)注圖Fig.5 Dataset annotation plot

        3.2 實(shí)驗(yàn)環(huán)境與評估指標(biāo)

        (1)實(shí)驗(yàn)環(huán)境

        本文實(shí)驗(yàn)平臺操作系統(tǒng)為Ubuntu 18.04,CPU為Intel Xeon E5-2620 v4,GPU為Nvidia GeForce GTX 3080Ti,實(shí)驗(yàn)仿真使用Windows10系統(tǒng)下PyTorch深度學(xué)習(xí)框架,開發(fā)環(huán)境為Python 3.9,PyTorch 1.6.0,

        CUDA 11.1。

        (2)參數(shù)設(shè)置

        本文為保證訓(xùn)練結(jié)果的準(zhǔn)確性,參與對比的算法均在相同訓(xùn)練參數(shù)下,對算法進(jìn)行訓(xùn)練測試,模型參數(shù)值設(shè)置如表1所示。

        表1 參數(shù)設(shè)置表Table 1 Parameters setting table

        (3)評估指標(biāo)

        為了更準(zhǔn)確地分析檢測性能,本文采用每秒處理的圖像幀數(shù)(frame per second,F(xiàn)PS)、平均精度均值(mean average precision,mAP),作為本實(shí)驗(yàn)算法模型的評價指標(biāo),每種指標(biāo)都會在一定程度上反映檢測算法在不同方面的性能。首先應(yīng)計(jì)算其查準(zhǔn)率(precision)和查全率(recall)。查準(zhǔn)率是模型預(yù)測的所有目標(biāo)中,預(yù)測正確的比例,突出結(jié)果的相關(guān)性;查全率又稱召回率,所有的真實(shí)(正)目標(biāo)中,預(yù)測正確的目標(biāo)比例。公式如下所示:

        其中,TP表示實(shí)際為正例且被分類器劃分為正例的樣本數(shù)量;FP表示實(shí)際為負(fù)例但被分類器劃分為正例的樣本數(shù)量;FN表示實(shí)際為正例但被分類器劃分為負(fù)例的樣本數(shù)量。

        平均精度(average precision,AP)就是對數(shù)據(jù)集中的一個類別的精度進(jìn)行平均,如公式(12)所示,p和r分別表示查準(zhǔn)率和查全率,AP為曲線包含的面積。平均精度均值(mAP)是指所有類AP的平均值,其計(jì)算公式如式(12)、(13)所示:

        3.3 模型訓(xùn)練

        實(shí)驗(yàn)在自建數(shù)據(jù)集上進(jìn)行,首先針對YOLOv5s訓(xùn)練要求更改配置文件,設(shè)置實(shí)驗(yàn)參數(shù)值包括衰減系數(shù)、epoch值、學(xué)習(xí)率、批量、動量等。在實(shí)驗(yàn)訓(xùn)練過程中通過查看訓(xùn)練日志可以發(fā)現(xiàn),在訓(xùn)練達(dá)到300次左右時,損失函數(shù)基本不再下降逐漸趨于平穩(wěn),因此在訓(xùn)練達(dá)到300次時終止訓(xùn)練。將訓(xùn)練日志中數(shù)據(jù)進(jìn)行統(tǒng)計(jì),具體結(jié)果如圖6、7所示。

        圖6 改進(jìn)算法mAP變化曲線Fig.6 Change curve of improved algorithm mAP

        圖7改進(jìn)算法損失變化曲線Fig.7 Loss change curve of improved algorithm

        圖6 、7分別為改進(jìn)算法模型訓(xùn)練過程中mAP和損失函數(shù)變化曲線圖,由圖中可以看出改進(jìn)后算法模型檢測精度可達(dá)到86.3%,損失函數(shù)變化曲線隨著訓(xùn)練次數(shù)的增加在250~300次時逐漸趨于平穩(wěn)。

        3.4 實(shí)驗(yàn)結(jié)果

        (1)壓縮激勵模塊對比實(shí)驗(yàn)

        為了驗(yàn)證壓縮-激勵模塊對算法改進(jìn)的有效性,本節(jié)采用對照實(shí)驗(yàn)的原理,分析改進(jìn)模塊對算法性能提升的有效性。分別對比了YOLOv5m、YOLOv5s以及其分別引入壓縮激勵模塊后在同一數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果,結(jié)果如表2所示。

        表2 壓縮-激勵模塊對算法性能影響對比Table 2 Influence comparison of compression-excitation module on algorithm performance

        表2第一行是YOLOv5m原算法在數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果,平均檢測精度為73.6%,檢測幀率為89.3 frame/s,加入壓縮-激勵模塊后平均檢測精度提升5.5個百分點(diǎn),檢測幀率降低3.8 frame/s;YOLOv5s在數(shù)據(jù)集上的平均精度和檢測幀率分別為69.5%、126.6 frame/s,加入壓縮-激勵模塊后平均檢測精度提升了7.8個百分點(diǎn),但是其檢測幀率降低了2.9 frame/s。為了進(jìn)一步驗(yàn)證實(shí)驗(yàn)的有效性,橫向?qū)Ρ仍赮OLOv5s基礎(chǔ)上引入SAGN(空間注意力模塊),可以看出其對原算法的精度有一定的提升,但是相比本文引入模塊實(shí)驗(yàn)效果較差,并且其對算法速度的影響較大。在原算法基礎(chǔ)上引入CBAM(卷積注意力模塊),通過實(shí)驗(yàn)結(jié)果可看出其雖然對精度提升幅度較大,但是由于其同時關(guān)注空間和通道信息,因此其檢測速度不盡如人意,幾乎只有原算法速度的一半。由此可以看出引入壓縮-激勵模塊對算法精度有一定改進(jìn),但其同時也會增加一定計(jì)算量,從而對檢測速度有一定影響。

        (2)頸部不同輸出通道對比實(shí)驗(yàn)

        為了驗(yàn)證頸部不同輸出通道對算法實(shí)驗(yàn)結(jié)果的影響,對三層輸出通道進(jìn)行重組,進(jìn)行訓(xùn)練得到不同的檢測結(jié)果,具體結(jié)果如表3所示。

        表3 不同輸出通道對算法效果影響對比Table 3 Influence comparison of tdifferent output channels on algorithm effect

        由表3可以看出當(dāng)增加模型輸出通道數(shù)時,模型參數(shù)也隨之增加,其檢測性能也有一定提升。但同時也出現(xiàn)了模型數(shù)量增加但其檢測精度下降的情況,比如通道數(shù)由[128,225,138]增加到[225,225,138],模型參數(shù)由3.81 MB增加到4.41 MB,但是其檢測精度卻由74.4%降為73.2%。由于無人機(jī)視角下檢測目標(biāo)過小并且易受周圍復(fù)雜背景影響,其負(fù)樣本的增加數(shù)量大于正樣本數(shù)從而導(dǎo)致檢測精度下降。綜合評估下當(dāng)通道數(shù)為[138,225,138]時檢測精度最高為76.8%,模型數(shù)為3.97 MB,相對原算法檢測精度提高了7.3個百分點(diǎn)。由此可見,引入雙錐臺特征融合結(jié)構(gòu)對于提升算法性能有一定作用。

        (3)損失函數(shù)對比實(shí)驗(yàn)

        為證實(shí)本文提出改進(jìn)損失函數(shù)的有效性,進(jìn)行損失函數(shù)對比實(shí)驗(yàn),實(shí)驗(yàn)參數(shù)中設(shè)置的epoch值為300,在實(shí)驗(yàn)訓(xùn)練過程發(fā)現(xiàn)訓(xùn)練達(dá)到300次左右時,損失函數(shù)基本趨于平穩(wěn),因此終止訓(xùn)練。具體訓(xùn)練結(jié)果如圖8所示。

        圖8 損失變化曲線對比圖Fig.8 Comparison diagram of loss change curves

        由圖8訓(xùn)練后的損失函數(shù)對比圖可以清楚看出,改進(jìn)后YOLOv5s的損失函數(shù)下降趨勢更明顯,表明了改進(jìn)后算法的有效性。

        為了進(jìn)一步驗(yàn)證改進(jìn)損失函數(shù)的有效性,將改進(jìn)損失函數(shù)與原算法損失函數(shù)以及MAE(絕對誤差損失)對算法性能影響的結(jié)果進(jìn)行對比,結(jié)果如表4所示。

        表4 損失函數(shù)實(shí)驗(yàn)結(jié)果對比Table 4 Experimental results comparison of loss functions

        由表4,為了驗(yàn)證改進(jìn)損失函數(shù)對算法性能的影響,在實(shí)驗(yàn)中將算法中損失函數(shù)進(jìn)行單獨(dú)替換,分別替換為MAE、CIOU Loss與原算法中GIOU Loss進(jìn)行橫向?qū)Ρ葘?shí)驗(yàn)。從結(jié)果可以明顯看出,將損失函數(shù)替換為MAE后檢測平均精度提高了0.6個百分點(diǎn),檢測幀率提高了2.7 frame/s;替換為CIOU Loss后,由于CIoU Loss在損失項(xiàng)中加入了PB、GT中心距離和長寬比例的懲罰項(xiàng),使網(wǎng)絡(luò)在訓(xùn)練時可以保證預(yù)測框更快地收斂,并且得到更高的回歸定位精度,可以看出檢測精度提高了3.3個百分點(diǎn),檢測幀率提升較多,增加了11.6 frame/s,因此可以得出本文提出的CIoU Loss對算法速度提升效果較優(yōu)。

        (4)消融對比實(shí)驗(yàn)

        為了更好地驗(yàn)證本實(shí)驗(yàn)三種改進(jìn)策略的有效性,在自建數(shù)據(jù)集上展開消融實(shí)驗(yàn),對改進(jìn)算法的有效性進(jìn)行分析。依次在YOLOv5s的基礎(chǔ)上加入壓縮-激勵模塊、BFF模塊以及改進(jìn)損失函數(shù)。為保證實(shí)驗(yàn)的準(zhǔn)確性,訓(xùn)練過程中均采用相同參數(shù)配置,衰減系數(shù)為0.000 5,學(xué)習(xí)率為0.01,批量設(shè)置為16,動量設(shè)置為0.937。實(shí)驗(yàn)結(jié)果如表5所示。

        表5 消融實(shí)驗(yàn)結(jié)果對比Table 5 Comparison of ablation experiment results

        表5第一行表示改進(jìn)前YOLOv5s在自建數(shù)據(jù)集上的訓(xùn)練結(jié)果,平均檢測精度是69.5%。在分別引入SENet和BFF模塊之后可以明顯看,lSENet對檢測精確度的影響較大,但是BFF對檢測速度的提升較為明顯。通過對這兩個模塊的功能分析得出,壓縮-激勵模塊主要是增加計(jì)算量從而提升模型算法的特征提取能力,因此對檢測精度影響較大,計(jì)算量增加也對檢測速度有一定影響。而BFF通過增加模型通道在提升檢測精度的同時也對檢測速度有一定改進(jìn)。在同時引進(jìn)兩個模塊之后,檢測模型得到最優(yōu)結(jié)果,檢測精度和幀率分別提高了16.8個百分點(diǎn)和6.6 frame/s。

        (5)模型檢測結(jié)果

        為了更好地展示改進(jìn)后算法的檢測效果,分別選取道路情況復(fù)雜的十字路口、夜晚交叉路口以及住宅區(qū)旁邊的道路三種不同場景下拍攝圖像,對原算法YOLOv5s和改進(jìn)后的算法進(jìn)行測試,實(shí)驗(yàn)結(jié)果對比如表6所示。

        表6 實(shí)驗(yàn)結(jié)果對比Table 6 Comparison of experimental results

        如圖9中第一排為原YOLOv5s算法實(shí)驗(yàn)結(jié)果圖,第二排為PP-YOLO算法在數(shù)據(jù)集上的訓(xùn)練結(jié)果,第三排為YOLO v4的訓(xùn)練效果圖,第四排為改進(jìn)后YOLOv5s算法的實(shí)驗(yàn)結(jié)果圖。由圖9(a)可以看到,改進(jìn)前的YOLOv5s算法并沒有檢測出遠(yuǎn)處的小目標(biāo)車輛并且檢測精度較低,而改進(jìn)后的算法不僅檢測出遠(yuǎn)處較小目標(biāo)還進(jìn)一步提升了算法精度。圖9(b)中遠(yuǎn)處斑馬線旁的出租車原算法實(shí)驗(yàn)中并沒有檢測出,而改進(jìn)后算法不僅準(zhǔn)確檢測出并且對其進(jìn)行正確的分類。圖9(c)中可清楚看出,改進(jìn)后算法對于道路車輛的精準(zhǔn)分類以及檢測精度有明顯提升,進(jìn)一步說明算法改進(jìn)的有效性。

        圖9 檢測結(jié)果對比圖Fig.9 Comparison diagram of test results

        4 結(jié)束語

        本文基于YOLOv5s提出一種改進(jìn)YOLOv5s算法,主要針對無人機(jī)拍攝圖像中檢測目標(biāo)較小、背景復(fù)雜及特征提取受限,導(dǎo)致無人機(jī)檢測速度和精度無法同時提升的問題。該算法在YOLOv5s的基礎(chǔ)上引入壓縮-激勵模塊,用于提高網(wǎng)絡(luò)的特征提取能力;其次引入雙錐臺特征融合結(jié)構(gòu)從而提升算法對小目標(biāo)的檢測精度;最后替換CIoU Loss為算法模型的損失函數(shù),在提高邊界框回歸速度的同時提高定位精度。本文實(shí)驗(yàn)以VIVID、VisDrone-2019數(shù)據(jù)集為基礎(chǔ),篩選建立新數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明,在復(fù)雜環(huán)境下改進(jìn)后的算法適應(yīng)力更強(qiáng),準(zhǔn)確率在原算法的基礎(chǔ)上提高了16.8個百分點(diǎn),檢測幀率提高了6.6 frame/s。盡管模型權(quán)重相對來說已經(jīng)很小,但是對于邊緣設(shè)備而言仍然負(fù)載過大,因此模型的輕量化是其未來發(fā)展的一個重要方向。

        猜你喜歡
        特征實(shí)驗(yàn)檢測
        記一次有趣的實(shí)驗(yàn)
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        如何表達(dá)“特征”
        做個怪怪長實(shí)驗(yàn)
        不忠誠的四個特征
        抓住特征巧觀察
        NO與NO2相互轉(zhuǎn)化實(shí)驗(yàn)的改進(jìn)
        實(shí)踐十號上的19項(xiàng)實(shí)驗(yàn)
        太空探索(2016年5期)2016-07-12 15:17:55
        84pao强力打造免费视频34 | 一区二区三区在线观看人妖| 无码专区一ⅴa亚洲v天堂| 精品无码久久久久久国产| 国产高清无码在线| 久久精品国产亚洲av高清蜜臀| 亚洲av少妇高潮喷水在线| 性无码专区无码| 狠狠久久久久综合网| 国产成人午夜av影院| 亚洲国产精品久久婷婷| 爆乳熟妇一区二区三区霸乳| 真正免费一级毛片在线播放| 国产亚洲午夜高清国产拍精品不卡| 中文字幕亚洲综合久久综合| 狠狠色综合7777久夜色撩人ⅰ| 亚洲男人天堂2019| 毛片av在线尤物一区二区| 中文字幕精品人妻在线| 亚洲avav天堂av在线网毛片| 久青草国产视频| 白色月光在线观看免费高清| 亚洲不卡高清av网站| 日本japanese丰满多毛| a观看v视频网站入口免费| 国产成人自拍视频视频| 国产精品免费一区二区三区四区 | 海角国精产品一区一区三区糖心 | 国产成年无码v片在线| 欧美色资源| 国产三级不卡在线观看视频| 亚洲国产一二三精品无码 | 色男色女午夜福利影院| 伊人久久大香线蕉av色| 亚洲精品国产成人AV| 国产成人自拍视频在线观看网站| 亚洲av成人综合网成人| 亚洲旡码a∨一区二区三区| АⅤ天堂中文在线网| 人妖一区二区三区在线| 久久99精品九九九久久婷婷 |