亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        改進(jìn)YOLO V3的道路小目標(biāo)檢測(cè)

        2020-11-10 07:10:48岳曉新賈君霞陳喜東李廣安
        關(guān)鍵詞:行人損失聚類

        岳曉新,賈君霞,陳喜東,李廣安

        1.蘭州交通大學(xué) 電子與信息工程學(xué)院,蘭州 730070

        2.蘭州文理學(xué)院 旅游學(xué)院,蘭州 730030

        1 引言

        目標(biāo)檢測(cè)是計(jì)算機(jī)視覺領(lǐng)域研究的重要基礎(chǔ),不論是實(shí)現(xiàn)圖像與文字的交互還是特定目標(biāo)的跟蹤,目標(biāo)檢測(cè)都能夠提供可靠有效的信息,因而目標(biāo)檢測(cè)在人工智能和信息技術(shù)等眾多領(lǐng)域都有廣泛的應(yīng)用,如機(jī)器視覺、智慧安保、醫(yī)學(xué)影像中的病灶檢測(cè)、自動(dòng)駕駛、行為理解、人機(jī)交互、基于內(nèi)容的圖像檢索、智能視頻監(jiān)控等[1-6]。但常用的目標(biāo)檢測(cè)算法在檢測(cè)小目標(biāo)時(shí)因目標(biāo)分辨率低、特征不明,存在效果不佳及漏檢率較高的問題[7-8]。

        近年來,隨著計(jì)算機(jī)技術(shù)的快速發(fā)展,基于深度學(xué)習(xí)的多種目標(biāo)檢測(cè)算法相繼提出[1]。此類算法具有自動(dòng)學(xué)習(xí)、特征表達(dá)能力良好且檢測(cè)精度優(yōu)良等特點(diǎn),已成為當(dāng)前目標(biāo)檢測(cè)算法的主流[1,9-10]。目前主流的基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法依據(jù)其設(shè)計(jì)原理,主要分為兩類。第一類為兩階段目標(biāo)檢測(cè)算法,此類算法是將目標(biāo)檢測(cè)分為兩個(gè)階段,第一階段使用候選區(qū)域生成網(wǎng)絡(luò)(Region Proposal Network,RPN)生成一個(gè)有可能包含待檢物體的候選框,第二階段利用卷積神經(jīng)網(wǎng)絡(luò)完成對(duì)候選框中候選目標(biāo)位置與類別的預(yù)測(cè)及識(shí)別[10]。常見的兩階段目標(biāo)檢測(cè)算法有R-CNN(Region-Conventional Neural Network)[11]、Fast R-CNN[12]、Faster R-CNN[13]等。第二類為單階段目標(biāo)檢測(cè)算法,此類算法不使用RPN,直接在卷積神經(jīng)網(wǎng)絡(luò)中提取特征來預(yù)測(cè)物體分類和位置信息,是一種端到端的目標(biāo)檢測(cè)算法[6-7],因此單階段目標(biāo)檢測(cè)算法具有更快的檢測(cè)速度。常見的單階段目標(biāo)檢測(cè)算法有SSD(Single Shot multibox Detector)[14]、YOLO(You Only Look Once)[15]、YOLO V2[16]、YOLO V3[17]等。

        為了提高目標(biāo)檢測(cè)算法對(duì)小目標(biāo)檢測(cè)的平均精度和檢測(cè)速度,本文以單階段目標(biāo)檢測(cè)算法YOLO V3為基礎(chǔ),提出了一種改進(jìn)YOLO V3的道路小目標(biāo)檢測(cè)算法。首先對(duì)YOLO V3算法網(wǎng)絡(luò)模型中的K-Means聚類算法[18]進(jìn)行優(yōu)化,使用DBSCAN(Density-Based Spatial Clustering of Applications with Noise)聚類算法[19]消除噪音點(diǎn)對(duì)聚類結(jié)果的影響,并確定K-Means聚類算法的K值;再通過K-Means 聚類算法對(duì)DBSCAN 聚類結(jié)果分析確定聚類中心,進(jìn)而根據(jù)重疊度IOU(Intersection Over Union)選取更合適的Anchor Box,以提高檢測(cè)的平均精度(Average Precision,AP)和檢測(cè)速度。同時(shí)引入Focal Loss損失函數(shù)[20]代替原YOLO V3算法中預(yù)測(cè)框定位平方和損失函數(shù)、置信度交叉熵?fù)p失函數(shù)及類別概率交叉熵?fù)p失函數(shù)。最后將KITTI 數(shù)據(jù)集[21]中的行人作為訓(xùn)練和測(cè)試對(duì)象,并與其他目標(biāo)檢測(cè)算法進(jìn)行對(duì)比實(shí)驗(yàn),結(jié)果表明改進(jìn)后的YOLO V3算法對(duì)小目標(biāo)的檢測(cè)在平均精度和速度上都有了明顯的提升。

        2 原始YOLO V3算法

        YOLO V3 是 Redmon 等[17]在 YOLO V2 算法的基礎(chǔ)上,融合ResNET、FPN、二元交叉熵?fù)p失等方法提出的單階段目標(biāo)檢測(cè)算法[22]。YOLO V3采用新的特征提取網(wǎng)絡(luò)Darknet-53,Darknet-53 主要由5 個(gè)殘差塊構(gòu)成,借鑒了殘差神經(jīng)網(wǎng)絡(luò)的思想[17]。YOLO V3在所屬類別結(jié)果的預(yù)測(cè)方面,采用了上采樣和融合做法,通過13×13、26×26 和52×52 三個(gè)不同尺度的融合特征圖對(duì)目標(biāo)進(jìn)行獨(dú)立檢測(cè),有效地增強(qiáng)了對(duì)大小不同物體和被遮擋物體的檢測(cè)效果,并引入躍層連接以強(qiáng)化收斂效果。其網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

        借鑒 Faster R-CNN 算法,YOLO V2 算法引入了Anchor Box并設(shè)定為5個(gè)[16]。YOLO V3算法中Anchor Box 由 5 個(gè)變?yōu)?9 個(gè),Anchor Box 的大小由K-Means 聚類算法對(duì)所有真實(shí)目標(biāo)框的長(zhǎng)寬聚類得到[17]。預(yù)測(cè)過程中,網(wǎng)絡(luò)輸出相對(duì)于Anchor Box 的偏移量分別為tx,ty,tw,th,Bounding Box與Anchor Box的對(duì)應(yīng)關(guān)系如圖2所示,則Bounding Box的坐標(biāo)計(jì)算公式為:

        式中,bx,by,bw,bh為Bounding Box的中心坐標(biāo)和寬高;cx,cy為當(dāng)前單元網(wǎng)格相對(duì)于圖像左上角的偏移量;pw,ph為對(duì)應(yīng)Anchor Box的寬和高;σ為激活函數(shù)Sigmoid,將網(wǎng)絡(luò)預(yù)測(cè)值tx,ty映射到0~1。

        圖1 YOLO V3網(wǎng)絡(luò)結(jié)構(gòu)

        圖2 Anchor Box和Bounding Box對(duì)應(yīng)關(guān)系

        3 YOLO V3網(wǎng)絡(luò)模型改進(jìn)

        3.1 數(shù)據(jù)集目標(biāo)框聚類算法

        本文主要研究小目標(biāo)檢測(cè)問題,通過聚類算法找到更合適的Anchor Box,有助于提高小目標(biāo)檢測(cè)的平均精度和速度。原YOLO V3算法中采用K-Means聚類算法獲得Anchor Box。K-Means 聚類算法在聚類迭代過程中采用距離作為相似性指標(biāo)找到給定數(shù)據(jù)集中的K個(gè)類,每個(gè)類的中心根據(jù)類中所有數(shù)據(jù)點(diǎn)的均值得到。該方法將距離公式中的不同特征屬性視為等權(quán)重,未考慮不同屬性對(duì)聚類效果的影響;如果類中存在噪音點(diǎn)或者孤立點(diǎn),它們遠(yuǎn)離數(shù)據(jù)樣本空間,則在計(jì)算類中心時(shí)產(chǎn)生較大波動(dòng),必定對(duì)均值計(jì)算產(chǎn)生極大影響,甚至使聚類中心嚴(yán)重偏離類樣本的密集區(qū)域,導(dǎo)致聚類結(jié)果出現(xiàn)嚴(yán)重偏差[23]。而且K-Means 聚類算法在處理數(shù)據(jù)時(shí)需要預(yù)先指定聚類數(shù)目即K值,K值的指定具有較大的主觀性[18]。

        針對(duì)K-Means聚類算法存在的問題,本文對(duì)聚類算法優(yōu)化,采用DBSCAN+K-Means 聚類算法對(duì)訓(xùn)練數(shù)據(jù)集目標(biāo)框進(jìn)行聚類分析,以期選取更適合小目標(biāo)檢測(cè)的Anchor Box。首先使用DBSCAN聚類算法分析聚類個(gè)數(shù)和聚類包含的點(diǎn),解決聚類時(shí)噪音點(diǎn)或者孤立點(diǎn)對(duì)聚類結(jié)果的影響,并為K-Means 聚類算法提供準(zhǔn)確的K值,即得到Anchor Box的個(gè)數(shù);再通過K-Means聚類算法對(duì)DBSCAN 聚類結(jié)果分析確定聚類中心,進(jìn)而根據(jù)重疊度IOU 選取更合適的Anchor Box。聚類過程中K-Means聚類算法距離公式定義為:

        式中,B表示樣本框大小,A表示聚類框大小,C表示K-Means聚類算法產(chǎn)生的聚類中心,IOU表示樣本框大小和聚類框大小的交互比,作為兩個(gè)框大小相似的度量。

        本文使用優(yōu)化后的聚類方法,對(duì)KITTI 數(shù)據(jù)集person 類別的樣本框進(jìn)行聚類分析。經(jīng)DBSCAN 聚類算法分析后確定K值為9,K-Means聚類算法迭代后選取的對(duì)應(yīng)Anchor Box 的寬高分別為(4,10)、(9,24)、(9,44)、(17,30)、(29,58)、(55,130)、(76,167)、(132、243)、(192,326)。表1 展示了聚類方法優(yōu)化前后,在KITTI 數(shù)據(jù)集上Anchor Box 的差異和檢測(cè)結(jié)果對(duì)比。從表1 中可以看出,使用優(yōu)化后的聚類算法得到的Anchor Box 對(duì)目標(biāo)檢測(cè)效果有明顯的提升,檢測(cè)速度比原YOLO V3 提高了2.14 幀/s,檢測(cè)平均精度提高了1.16個(gè)百分點(diǎn),達(dá)到91.23%。

        表1 不同Anchor Box檢測(cè)結(jié)果對(duì)比

        3.2 損失函數(shù)改進(jìn)

        損失函數(shù)作為深度神經(jīng)網(wǎng)絡(luò)對(duì)誤檢樣本評(píng)判的依據(jù),在很大程度上影響神經(jīng)網(wǎng)絡(luò)模型收斂的效果[24]。在目標(biāo)檢測(cè)領(lǐng)域,很多研究者[25]致力于研究設(shè)計(jì)更合適的損失函數(shù),以獲得更好的預(yù)測(cè)效果。YOLO 算法將目標(biāo)檢測(cè)問題轉(zhuǎn)化為回歸問題,YOLO V3 算法在預(yù)測(cè)框定位回歸過程中采用誤差平方和(SSE)的形式,在置信度和類別方面采用交叉熵?fù)p失函數(shù)[25-26],最終損失采用和的形式,其表達(dá)式如公式(3)所示:

        式中,λcoord、λnoobj分別表示坐標(biāo)損失權(quán)重和不包含目標(biāo)的置信度損失權(quán)重,S為網(wǎng)格劃分的橫或縱向個(gè)數(shù),B為該網(wǎng)格具有的Bounding Box個(gè)數(shù),表示第i個(gè)網(wǎng)格第j個(gè)Bounding Box 是否負(fù)責(zé)某個(gè)對(duì)象的檢測(cè),表示網(wǎng)絡(luò)輸出相對(duì)于Anchor Box的坐標(biāo)、寬高偏移量及預(yù)測(cè)框置信度和類別概率預(yù)測(cè),表示真實(shí)目標(biāo)框坐標(biāo)、寬高、置信度和類別概率預(yù)測(cè)。

        YOLO V3 算法中的預(yù)測(cè)框定位損失、置信度損失以及類別概率損失均需經(jīng)過Sigmoid 函數(shù)激活[17],然后采用公式(3)計(jì)算最終損失。Sigmoid 函數(shù)在邏輯回歸中經(jīng)常用到,也稱Logistic函數(shù)且表達(dá)式為:

        其函數(shù)圖像及導(dǎo)數(shù)圖像如圖3所示。

        圖3 Sigmoid函數(shù)及其導(dǎo)函數(shù)圖像

        從圖3中可以看出,Sigmoid函數(shù)單調(diào)連續(xù),輸出范圍有限,因此數(shù)據(jù)在傳遞的過程中不容易發(fā)散;導(dǎo)數(shù)的值始終小于1,輸入變量較大或者較小時(shí)其值接近于0,在深層的神經(jīng)網(wǎng)絡(luò)中極易造成梯度消失的問題,即當(dāng)神經(jīng)網(wǎng)絡(luò)的輸出較大時(shí),導(dǎo)數(shù)會(huì)變得非常小。再將Sigmoid函數(shù)的輸出值輸入到損失函數(shù)中,得到的誤差值會(huì)很大,而且誤差越大收斂越慢,出現(xiàn)梯度消失的情況。為解決此問題,本文以Focal Loss損失函數(shù)代替了原YOLO V3算法中的預(yù)測(cè)框定位平方和損失函數(shù)、置信度交叉熵?fù)p失函數(shù)及類別概率交叉熵?fù)p失函數(shù)。

        Focal Loss 損失函數(shù)是在交叉熵?fù)p失函數(shù)的基礎(chǔ)上修改而來,其表達(dá)式如式(5)所示:

        式中,p為激活函數(shù)Sigmoid 的輸出值;γ≥0 ,為聚焦參數(shù);(1-p)γ為調(diào)節(jié)因子;0 ≤α≤1 ,為類別權(quán)重因子;γ和α為固定值,不參與訓(xùn)練;y為標(biāo)簽值。無論是前景類還是背景類,p越大,權(quán)重 (1-p)γ就越小,lgp就越大,即調(diào)節(jié)因子減少了大概率目標(biāo)的損失貢獻(xiàn),并擴(kuò)展了樣本接收小目標(biāo)的范圍,增加了小目標(biāo)檢測(cè)的準(zhǔn)確率。改進(jìn)后的YOLO V3算法損失函數(shù)如下:

        為了驗(yàn)證改進(jìn)后損失函數(shù)的有效性,使用改進(jìn)后的損失函數(shù)代替原YOLO V3中的損失函數(shù),Anchor Box大小選用表1中原YOLO V3方法得到的數(shù)值。表2展示了使用不同的損失函數(shù),在KITTI數(shù)據(jù)集上目標(biāo)檢測(cè)結(jié)果對(duì)比。從表2 中可以看出,使用改進(jìn)損失函數(shù)的YOLO V3算法在KITTI數(shù)據(jù)集上目標(biāo)檢測(cè)的平均精度有明顯的提高,檢測(cè)平均精度達(dá)到91.29%,較原YOLO V3提高了1.22個(gè)百分點(diǎn),且檢測(cè)速度達(dá)到43.08 幀/s。

        表2 不同損失函數(shù)檢測(cè)結(jié)果對(duì)比

        4 實(shí)驗(yàn)結(jié)果分析

        4.1 實(shí)驗(yàn)環(huán)境及參數(shù)設(shè)置

        本次實(shí)驗(yàn)的數(shù)據(jù)集選用KITTI 數(shù)據(jù)集,KITTI 數(shù)據(jù)集包含市區(qū)、鄉(xiāng)村和高速公路等場(chǎng)景采集的真實(shí)圖像數(shù)據(jù),每張圖像中最多達(dá)15輛車和30個(gè)行人,還有不同程度的遮擋與截?cái)?。本文?duì)KITTI數(shù)據(jù)集原有的8類標(biāo)簽信息進(jìn)行了處理,保留實(shí)驗(yàn)需要的person 類別標(biāo)簽,同時(shí)選取該數(shù)據(jù)集中9 476 張圖像作為實(shí)驗(yàn)數(shù)據(jù),并分成了兩部分。其中7 107 張圖像用于訓(xùn)練數(shù)據(jù)集,其余2 369張圖像用于測(cè)試數(shù)據(jù)集。實(shí)驗(yàn)基于Windows平臺(tái)通過Python 語言編程實(shí)現(xiàn),應(yīng)用深度學(xué)習(xí)框架Tensorflow 1.4作為后端的Keras 2.1.3搭建網(wǎng)絡(luò)模型,硬件環(huán)境為Intel?Core?i7-8750H CPU@3.60 GHz、8 GB RAM、NVIDIA GeForce GTX 1050 Ti。對(duì)比實(shí)驗(yàn)硬件配置環(huán)境相同。

        對(duì)YOLO V3算法和改進(jìn)的YOLO V3算法分別采用批梯度下降的方式進(jìn)行訓(xùn)練,參數(shù)設(shè)置以YOLO V3論文(文獻(xiàn)[17])樣本訓(xùn)練時(shí)參數(shù)設(shè)置為基礎(chǔ),并對(duì)部分參數(shù)調(diào)整,經(jīng)過反復(fù)試驗(yàn)選取效果最佳的參數(shù)。樣本訓(xùn)練總共進(jìn)行50 000 次迭代計(jì)算,其中批量大小設(shè)置為64,初始學(xué)習(xí)率設(shè)定為0.001,動(dòng)量為0.94,權(quán)重衰減系數(shù)為0.000 2。當(dāng)訓(xùn)練迭代次數(shù)為25 000 次和40 000 次時(shí),分別將學(xué)習(xí)率降低為0.000 1 和0.000 01,使損失函數(shù)進(jìn)一步收斂。同時(shí)將訓(xùn)練的圖像進(jìn)行飽和度和曝光度調(diào)整、圖像翻轉(zhuǎn)、增加對(duì)比度等方法處理,使訓(xùn)練數(shù)據(jù)集中的圖像進(jìn)行增強(qiáng)和擴(kuò)充。

        4.2 實(shí)驗(yàn)結(jié)果

        4.2.1 對(duì)小目標(biāo)檢測(cè)的結(jié)果

        選取三組國(guó)內(nèi)城市道路圖片,分別使用原始YOLOV3算法和改進(jìn)后的YOLO V3算法進(jìn)行道路行人檢測(cè),并加入小目標(biāo)檢測(cè)算法Perceptual GAN[27]對(duì)同一場(chǎng)景小目標(biāo)進(jìn)行檢測(cè)。圖4展示了檢測(cè)結(jié)果,其中圖4(a)中改進(jìn)的YOLO V3 算法有效地檢測(cè)出了遮擋的環(huán)衛(wèi)工人,而小目標(biāo)檢測(cè)算法Perceptual GAN 和原始YOLO V3 算法漏檢了此小目標(biāo),圖4(b)中原始YOLO V3 算法漏檢了2 個(gè)行人小目標(biāo),小目標(biāo)檢測(cè)算法Perceptual GAN只檢測(cè)出了其中一個(gè)行人小目標(biāo),而改進(jìn)的YOLO V3算法準(zhǔn)確地檢測(cè)出了漏檢的2個(gè)行人小目標(biāo)的位置,圖4(c)中改進(jìn)的YOLO V3 算法準(zhǔn)確地檢測(cè)出了原始YOLO V3漏檢的被遮擋的外賣騎手和遠(yuǎn)處的2個(gè)行人小目標(biāo),而小目標(biāo)檢測(cè)算法Perceptual GAN相比改進(jìn)的YOLO V3算法未檢測(cè)出被遮擋的外賣騎手且漏檢了一個(gè)行人小目標(biāo)??梢姡糦OLO V3算法對(duì)道路中的行人小目標(biāo)存在漏檢的情況,而改進(jìn)的YOLO V3算法可以有效地檢測(cè)出道路中的行人小目標(biāo),且相比小目標(biāo)檢測(cè)算法Perceptual GAN 對(duì)小目標(biāo)的檢測(cè)效果有進(jìn)一步提升。

        圖4 小目標(biāo)檢測(cè)的結(jié)果對(duì)比

        為了進(jìn)一步驗(yàn)證本文提出方法能夠有效降低小目標(biāo)漏檢率,選取目標(biāo)檢測(cè)算法評(píng)價(jià)指標(biāo)精度、召回率和F1 指標(biāo)對(duì)改進(jìn)的YOLO V3 算法進(jìn)行評(píng)價(jià)。表3 展示了YOLO V3算法改進(jìn)前后在KITTI數(shù)據(jù)集上目標(biāo)檢測(cè)結(jié)果評(píng)價(jià)指標(biāo)的對(duì)比結(jié)果。從表3中可以看出,相較原YOLO V3 算法,改進(jìn)后的 YOLO V3 算法在 KITTI 數(shù)據(jù)集上目標(biāo)檢測(cè)的精度、召回率和F1指標(biāo)均有所提升,其中對(duì)小目標(biāo)檢測(cè)的召回率提高了1.65 個(gè)百分點(diǎn),達(dá)到90.18%。

        表3 YOLO V3算法改進(jìn)前后評(píng)價(jià)指標(biāo)對(duì)比%

        4.2.2 與其他目標(biāo)檢測(cè)算法的結(jié)果對(duì)比

        將本文改進(jìn)的YOLO V3算法與Fast R-CNN、Faster R-CNN、SSD、YOLO、YOLO V2、YOLO V3等目標(biāo)檢測(cè)算法均使用本文選取的KITTI數(shù)據(jù)集進(jìn)行行人目標(biāo)檢測(cè)任務(wù)的訓(xùn)練與測(cè)試,并選取平均精度與檢測(cè)速度兩項(xiàng)指標(biāo)對(duì)各算法進(jìn)行評(píng)價(jià)。表4 展示了Fast R-CNN、Faster R-CNN、SSD、YOLO、YOLO V2、YOLO V3 與改進(jìn)的YOLO V3算法的對(duì)比實(shí)驗(yàn)結(jié)果。

        表4 不同目標(biāo)檢測(cè)算法結(jié)果對(duì)比

        從表4中可以看出兩階段目標(biāo)檢測(cè)算法Fast R-CNN和Faster R-CNN 的平均精度分別為63.52%與74.69%,但檢測(cè)速度較低,這主要是由于兩階段目標(biāo)檢測(cè)算法在檢測(cè)過程中候選區(qū)域生成網(wǎng)絡(luò)(RPN)生成包含待檢物體的候選框會(huì)增加網(wǎng)絡(luò)模型的計(jì)算時(shí)間。使用單階段目標(biāo)檢測(cè)算法YOLO和YOLO V2檢測(cè)目標(biāo),雖然檢測(cè)速度得到了很大提升,但平均精度卻有所下降。單階段目標(biāo)檢測(cè)算法SSD較兩階段目標(biāo)檢測(cè)算法Fast R-CNN和Faster R-CNN在平均精度和檢測(cè)速度方面都有較大的提升,但與原始YOLO V3算法在檢測(cè)的平均精度和檢測(cè)速度方面具有一定的差距。表中未改進(jìn)的目標(biāo)檢測(cè)算法中性能最好的是YOLO V3 算法,其獲得了90.07%的平均精度和42.17 幀/s 的檢測(cè)速度,而本文改進(jìn)的YOLO V3算法較原始YOLO V3算法對(duì)行人目標(biāo)檢測(cè)在平均精度上又進(jìn)一步提升,達(dá)到了92.43%,同時(shí)檢測(cè)速度超過原始YOLO V3 算法,達(dá)到44.52 幀/s,實(shí)現(xiàn)了實(shí)時(shí)檢測(cè)。

        5 結(jié)論

        針對(duì)通用目標(biāo)檢測(cè)算法在檢測(cè)小目標(biāo)時(shí)效果不佳、漏檢率較高的問題,本文對(duì)YOLO V3深度神經(jīng)網(wǎng)絡(luò)模型算法進(jìn)行了改進(jìn)。首先優(yōu)化了聚類算法,并選取了更合適的Anchor Box,提高了檢測(cè)的平均精度和速度;然后引入Focal Loss損失函數(shù)代替原YOLO V3算法中預(yù)測(cè)框定位平方和損失函數(shù)、置信度交叉熵?fù)p失函數(shù)及類別概率交叉熵?fù)p失函數(shù),加快了初始收斂速度,減小了梯度消失的影響,提高了小目標(biāo)檢測(cè)的平均精度;最后將改進(jìn)的YOLO V3 算法應(yīng)用于道路行人目標(biāo)檢測(cè)并與原始YOLO V3算法進(jìn)行定性對(duì)比實(shí)驗(yàn),同時(shí)運(yùn)用改進(jìn)的YOLO V3算法與Fast R-CNN、Faster R-CNN、SSD、YOLO、YOLO V2、YOLO V3等目標(biāo)檢測(cè)算法在行人目標(biāo)檢測(cè)方面進(jìn)行了定量對(duì)比實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明,本文改進(jìn)的YOLO V3 算法能夠有效降低小目標(biāo)檢測(cè)的漏檢率,大大提高檢測(cè)的平均精度和檢測(cè)速度,本實(shí)驗(yàn)檢測(cè)的平均精度達(dá)92.43%,檢測(cè)速率達(dá)44.52 幀/s。

        本文雖然將YOLO V3 算法改進(jìn)并應(yīng)用于小目標(biāo)檢測(cè),同時(shí)取得了較好的實(shí)驗(yàn)結(jié)果。但目前改進(jìn)的YOLO V3 算法僅應(yīng)用于行人小目標(biāo)檢測(cè)方面,而實(shí)際應(yīng)用中往往是多類目標(biāo)同時(shí)檢測(cè),因此,今后將加入更多不同類別的小目標(biāo)同時(shí)檢測(cè),以進(jìn)一步提升算法的識(shí)別率和實(shí)用性。

        猜你喜歡
        行人損失聚類
        少問一句,損失千金
        胖胖損失了多少元
        毒舌出沒,行人避讓
        意林(2021年5期)2021-04-18 12:21:17
        路不為尋找者而設(shè)
        玉米抽穗前倒伏怎么辦?怎么減少損失?
        基于DBSACN聚類算法的XML文檔聚類
        我是行人
        基于改進(jìn)的遺傳算法的模糊聚類算法
        一般自由碰撞的最大動(dòng)能損失
        一種層次初始的聚類個(gè)數(shù)自適應(yīng)的聚類方法研究
        色久悠悠婷婷综合在线| 国产一起色一起爱| 欧美两根一起进3p做受视频| 99久久精品免费看国产情侣 | 激情人妻网址| 亚洲区一区二区三区四| 日产精品毛片av一区二区三区| 欲女在线一区二区三区| 精品无码国产自产在线观看水浒传 | 一本一本久久a久久精品综合| 国产精品毛片99久久久久| 亚洲一区二区三区乱码在线| 亚洲av综合av国一区二区三区| 男性av天堂一区二区| 国产综合精品久久99之一| 在线播放免费人成毛片乱码| 久久久久亚洲av无码专区网站| 最新国产一区二区精品久久| 精品亚洲少妇一区二区三区| 亚洲AV无码成人精品区H| 国产午夜精品综合久久久| 成人av综合资源在线| 免费人妻无码不卡中文字幕系 | 无码午夜成人1000部免费视频| 成人区视频| 色婷婷丁香综合激情| 国产精品亚洲av无人区一区蜜桃| 中文字幕一区二区av| 精品人妻系列无码人妻漫画| 大胸少妇午夜三级| 一本久道久久综合婷婷五月| 亚洲成av在线免费不卡 | 免费黄网站永久地址进入| 人人妻人人澡人人爽人人精品av | 久久午夜精品人妻一区二区三区| 国产美女久久精品香蕉69| 青春草在线视频精品| 高清亚洲成av人片乱码色午夜| 伊人久久精品亚洲午夜| 精品人妻少妇一区二区三区不卡| 最新在线观看精品国产福利片|