亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進的YOLOv4高速公路車輛目標(biāo)檢測研究

        2021-07-14 16:22:06王瀅暄宋煥生梁浩翔余宵雨
        計算機工程與應(yīng)用 2021年13期
        關(guān)鍵詞:檢測

        王瀅暄,宋煥生,梁浩翔,余宵雨,云 旭

        長安大學(xué) 信息工程學(xué)院,西安710064

        交通場景下的車輛目標(biāo)檢測是交通智能管理與安全監(jiān)測中的關(guān)鍵技術(shù),是實現(xiàn)智能多樣化交通管理的基礎(chǔ),具有重要的研究價值。

        傳統(tǒng)的目標(biāo)檢測方法主要有三類:第一類是背景差分法,典型的代表有ViBe[1]、MOG[2]、MOG2[3]、GMG[4];第二類是幀差分法,主要是兩幀差法[5]和三幀差法[6],利用視頻序列中連續(xù)的兩幀或幾幀圖像的差來進行目標(biāo)檢測和提??;第三類是光流場法[7],光流場法用相鄰兩幀中對應(yīng)像素的灰度保持原理來評估二維圖像的變化,能夠較好的從背景中檢測到相關(guān)前景目標(biāo)。然而,傳統(tǒng)方法存在魯棒性差,適用性弱等缺陷。

        近些年隨著深度學(xué)習(xí)技術(shù)的火熱發(fā)展,目標(biāo)檢測算法也從基于手工特征的傳統(tǒng)算法轉(zhuǎn)向了基于深度神經(jīng)網(wǎng)絡(luò)的檢測技術(shù)。基于深度學(xué)習(xí)的目標(biāo)檢測模型可以分為兩大類:(1)二步檢測算法,其將檢測問題劃分為兩個階段,首先產(chǎn)生候選區(qū)域,然后對候選區(qū)域分類,采用非極大值抑制方法[8]確定目標(biāo)檢測結(jié)果,這類算法的典型代表是基于候選框的R-CNN 系算法,如R-CNN[9]、Fast R-CNN[10]、Faster R-CNN[11]等。(2)單步檢測算法,其不需要產(chǎn)生候選區(qū)域,直接產(chǎn)生物體的類別概率和位置坐標(biāo)值,比較典型的算法如YOLO和SSD[12]。單步算法準(zhǔn)確度低,但速度塊,小物體檢測效果不好,漏檢高。二步算法精度高但速度慢,訓(xùn)練時間長。

        目前,應(yīng)用最廣泛的是YOLO系列算法。YOLOv1[13]在速度上表現(xiàn)不錯,但對距離近的物體,還有很小的群體檢測效果不好,泛化能力偏弱。YOLOv2[14]其檢測精度和速度上都超過了上一代,但由于YOLOv2 的基礎(chǔ)網(wǎng)絡(luò)比較簡單,檢測精度的提升并不明顯。YOLOv3[15]的底層分類網(wǎng)絡(luò)darknet-53 性能更強,做到了檢測精度與檢測速度很好的平衡。同時,今年提出的YOLOv4[16]又進行了大規(guī)模的改進,在速度和精度上都有不錯的提升,成為現(xiàn)階段精度和速度表現(xiàn)都十分優(yōu)異的檢測算法。

        現(xiàn)存的目標(biāo)檢測算法會受到場景變化的影響,且現(xiàn)有的大型公開數(shù)據(jù)集針對高速公路場景適用性不強。本文通過針對不同交通場景提出了與之對應(yīng)的適用數(shù)據(jù)集,解決了因場景特征變化導(dǎo)致的誤檢和漏檢問題,除此之外,本文采用YOLOv4檢測算法進行車輛目標(biāo)檢測,為了提升檢測性能,同時更好地依據(jù)檢測結(jié)果構(gòu)建一個具有廣泛適用性的車輛信息庫,本文在YOLOv4的基礎(chǔ)上對網(wǎng)絡(luò)結(jié)構(gòu)進行了修改,在保證檢測精度的同時檢測速度得到大幅提升,提升了車輛目標(biāo)的檢測效果。

        1 車輛目標(biāo)數(shù)據(jù)集的構(gòu)建

        1.1 交通場景存在的問題

        在實際交通場景下,車輛目標(biāo)檢測會存在很多問題。問題如圖1所示,最常見的問題有四類:

        (1)場景變化,由于交通監(jiān)控的架設(shè)場景不同,監(jiān)控視角和高度也會存在差異。例如隧道內(nèi)的監(jiān)控視角和場景特征與高速公路就會存在巨大的差異,這種差異就會導(dǎo)致檢測準(zhǔn)確率大大降低同時還會導(dǎo)致大量的車輛目標(biāo)誤檢。

        (2)不同時段的同一場景也有著很大差異,隨著時間變化,場景圖片的亮暗程度和可見度不同,特別是夜晚的車輛目標(biāo)特征很難獲取,由于夜晚場景下車輛燈光的極大干擾,目標(biāo)車輛的車身輪廓無法準(zhǔn)確獲取,如果數(shù)據(jù)集不包含這種特殊夜晚場景數(shù)據(jù),檢測效果不理想。

        (3)車輛目標(biāo)在圖片的不同位置會有明顯的形變,同一車輛目標(biāo)在圖片遠端位置與近端位置會發(fā)生明顯的大小形變,會影響小目標(biāo)的檢測準(zhǔn)確度。圖1(c)中紅色框是同一車輛目標(biāo)在不同位置發(fā)生的明顯形變。

        (4)實際道路中的車輛目標(biāo)廣泛的存在車輛遮擋現(xiàn)象,此現(xiàn)象會導(dǎo)致將多目標(biāo)檢測為一個目標(biāo),出現(xiàn)漏檢和誤檢現(xiàn)象。圖1(d)紅色框是車輛互相遮擋情況。

        圖1 目標(biāo)車輛檢測中的四類問題

        以上四類問題的存在使得現(xiàn)有的大型公開數(shù)據(jù)集如COCO[17]、VOC[18]不適用于高速公路相機拍攝的視角,造成目標(biāo)車輛的大量誤檢和漏檢。

        1.2 數(shù)據(jù)集構(gòu)建

        要想制作對場景而言豐富有效的數(shù)據(jù)集,首先就必須有足夠的視頻數(shù)據(jù)進行支撐。本文采用實時流協(xié)議(RTSP)進行視頻的采集,采集流程如圖2所示,RTSP是一個用來獲取所需要屬性(編碼方式、分辨率或者幀率等)實時流以及控制實時流的應(yīng)用層協(xié)議。再通過與其他的傳輸機制配合進行實時流傳輸。在RTSP 中,可以在SETUP 方法中設(shè)置一些參數(shù),選擇是用TCP 還是用UDP 作為RTP 的底層傳輸協(xié)議。在完成RTSP 的配置后,通過RTSP定義的URL可以訪問獲得視頻流。編寫腳本利用Opencv調(diào)用ffmpeg來讀取RTSP視頻流地址,在讀取視頻成功后,將視頻進行逐幀保存,保存視頻的編碼格式為高質(zhì)量的DIVX編碼格式,保證圖片的質(zhì)量方便后續(xù)的車輛目標(biāo)標(biāo)定,幀率選定25 frame/s。

        圖2 監(jiān)控視頻采集

        本文采集了多種場景下多種角度的不同時段視頻,場景包括高速公路白天、高速公路夜間、高速公路雨天、隧道低視角以及隧道高視角。樣本數(shù)據(jù)豐富,視頻存儲總量達到了1.5 TB,為建立多樣化數(shù)據(jù)集奠定了良好的基礎(chǔ)。

        1.3 不同交通場景的車輛目標(biāo)數(shù)據(jù)集構(gòu)建

        為了解決不同交通場景下目標(biāo)數(shù)據(jù)集不匹配導(dǎo)致的檢測不準(zhǔn)確的問題,本文依據(jù)采集到的真實視頻數(shù)據(jù)提出并構(gòu)建了一個涵蓋不同交通場景的車輛目標(biāo)數(shù)據(jù)集,設(shè)計思路如圖3 所示。數(shù)據(jù)集展示圖如圖4 所示。該多樣化數(shù)據(jù)集包含了多個不同場景以及不同時段,建立多樣化數(shù)據(jù)集的目的就是為了針對性的解決由于交通場景特征變化引起的誤檢率過高的問題,多樣化數(shù)據(jù)集可以劃分為三個子數(shù)據(jù)集,子數(shù)據(jù)集的樣本情況如表1所示,這三個子數(shù)據(jù)集根據(jù)實際應(yīng)用場景進行劃分組織。

        圖3 多樣化數(shù)據(jù)集示意圖

        圖4 數(shù)據(jù)集展示圖

        表1 數(shù)據(jù)集樣本情況

        應(yīng)用于白天時間段場景的白天應(yīng)用數(shù)據(jù)集包含了不同路段的不同監(jiān)控角度下的大量車輛標(biāo)記樣本。

        應(yīng)用于隧道特殊場景的隧道應(yīng)用數(shù)據(jù)集包含了不同隧道路段以及不同視角的大量標(biāo)記樣本,其中還涵蓋了隧道光照不好以及監(jiān)控視角極低的特殊情況,大大增加了數(shù)據(jù)集對特殊交通場景情況的適用性。

        現(xiàn)存的大規(guī)模交通數(shù)據(jù)集極其缺少夜間場景下的交通車輛標(biāo)記樣本,夜間場景下的車輛目標(biāo)特征極難獲取,車輛燈光對車輛目標(biāo)的識別和標(biāo)記會產(chǎn)生極大的干擾,樣本標(biāo)記難度很大。本文通過大量觀察夜間實際行車數(shù)據(jù),最終制定了針對夜晚的特殊標(biāo)記尺度,遠端燈光干擾無法辨認處放棄標(biāo)記避免訓(xùn)練后結(jié)果出現(xiàn)大量檢測錯誤,本文將標(biāo)記區(qū)域限定在可以觀察到車輛大致輪廓的監(jiān)控近端,以此標(biāo)準(zhǔn)制作了一個交通場景夜間應(yīng)用數(shù)據(jù)集,由于夜間實際場景的環(huán)境限制,數(shù)據(jù)集可識別區(qū)域有限,但在監(jiān)控近端區(qū)域的識別準(zhǔn)確率良好,此數(shù)據(jù)集彌補了夜間交通場景下車輛目標(biāo)數(shù)據(jù)集和空缺,使得車輛檢測在夜間也可發(fā)揮作用。

        2 車輛目標(biāo)檢測網(wǎng)絡(luò)優(yōu)化

        本文采用YOLOv4 網(wǎng)絡(luò)來進行車輛目標(biāo)的檢測,網(wǎng)絡(luò)結(jié)構(gòu)如圖5 所示,YOLOv4 屬于單步檢測算法,檢測速度快,更容易運用到工程實踐中,并且YOLOv4 在YOLOv3的基礎(chǔ)上在輸入端進行改進,Mosaic數(shù)據(jù)增強便是YOLOv4 提出的一個基于CutMix[19]數(shù)據(jù)增強的方法,Mosaic數(shù)據(jù)增強采用了將4張照片,隨機縮放、隨機裁剪、隨機排布的方式進行拼接,豐富了樣本的數(shù)量。同時,加入了SPP[20](空間金字塔池化)模塊,更有效地增加主干特征的接收范圍,顯著分離了最重要的上下文特征,可以很好地解決本文開始提到的目標(biāo)車輛在圖片中因位置不同而出現(xiàn)的形變問題。在YOLOv4的基礎(chǔ)上,本文還提出了應(yīng)用多標(biāo)簽和圖片拼接檢測方法,使得檢測性能得到了進一步的提升。在平均精度(mAP)和速度上,YOLOv4 遠超YOLOv3 版本,mAP 提升了大約10個點,速度提升了大約12%,在精度差不多的情況下YOLOv4的速度更有優(yōu)勢。

        圖5 YOLOv4結(jié)構(gòu)圖

        2.1 多標(biāo)簽檢測

        文獻[22]提出經(jīng)典模式識別問題中,類在定義上是互斥的。當(dāng)類在特征空間中重疊時,會發(fā)生分類錯誤。并且研究了一種不同的情況,根據(jù)定義,這些類不是互斥的。文獻[22]實驗表明此工作可以推廣到其他相同性質(zhì)的分類問題。在此基礎(chǔ)上,本文在多類別標(biāo)簽的基礎(chǔ)上提出了一個多標(biāo)簽關(guān)聯(lián)的思路。標(biāo)簽之間的約束判斷流程如算法所示,首先判斷輸入圖形是否為空,然后判斷是否存在決定性類別,如果存在,則判斷是否有顏色標(biāo)簽,沒有缺省,若決定標(biāo)簽不存在,則直接進入下一目標(biāo)的判斷。

        依據(jù)多標(biāo)簽關(guān)聯(lián)的修改思想,本文提出并制作了一個多屬性數(shù)據(jù)集,并在多標(biāo)簽之間建立約束關(guān)系。

        數(shù)據(jù)集中的標(biāo)簽全部采用labelImg標(biāo)注軟件,同一車輛目標(biāo)的不同屬性標(biāo)簽對應(yīng)的標(biāo)注框坐標(biāo)相同,只是標(biāo)注類別不同,相當(dāng)于在一個目標(biāo)上有兩個標(biāo)注框,每個標(biāo)注框有不同的類別標(biāo)簽。此數(shù)據(jù)是由隧道場景下數(shù)據(jù)組成的,隧道場景屬于特殊場景,此場景下的車輛特征信息沒有普通場景容易分辨,所以在此場景下加入多屬性的車輛目標(biāo)數(shù)據(jù)集有利于構(gòu)建更完善準(zhǔn)確的車輛信息庫,以便于進一步的交通監(jiān)測和優(yōu)化。

        在傳統(tǒng)的單標(biāo)簽分類中,訓(xùn)練集中的每一個樣本只有一個相關(guān)的標(biāo)簽,這個標(biāo)簽來自于一個不重合的標(biāo)簽集合。多標(biāo)簽分類與多類分類的主要差異就是在最后輸出時多類分類只要找出概率最大的那一個標(biāo)簽值就行了,而多標(biāo)簽分類是找到前幾個概率最大的標(biāo)簽值,也就是說要設(shè)定一個閾值,這個閾值可以人為設(shè)定或根據(jù)性能度量值設(shè)定。

        對于多類分類,最后一層使用softmax 函數(shù)進行預(yù)測,訓(xùn)練階段使用categorical_crosse-ntropy 作為損失函數(shù),YOLOv4 中已經(jīng)加入了多標(biāo)簽分類的網(wǎng)絡(luò)結(jié)構(gòu),模型不再使用softmax 函數(shù)作為最終的分類器,而是使用logistic 作為分類器,對于多標(biāo)簽分類,最后一層使用sigmoid 函數(shù)進行預(yù)測,訓(xùn)練階段用binary_crossentropy作為損失函數(shù)。

        為實現(xiàn)logistic 回歸分類器,在每個特征上都乘以一個回歸系數(shù),然后把所有的結(jié)果值相加,將這個總和帶入sigmoid 函數(shù)中,進而得到一個范圍在0~1 之間的數(shù)值。最后設(shè)定一個閾值,在大于閾值時判定為1,否則判定為0。以上便是Logistic 回歸算法思想,公式(1)就是分類器的函數(shù)形式。這一屬性使得其適合應(yīng)用于多標(biāo)簽分類之中,通過對不同類別的判定使得一個目標(biāo)可以有多個標(biāo)簽屬性。

        在此基礎(chǔ)上對原有的多標(biāo)簽分類做了一些修改,使得標(biāo)簽之間加入了約束關(guān)系,決定性類別標(biāo)簽將影響并約束輔助性類別標(biāo)簽。多標(biāo)簽分類中不同類別的標(biāo)簽可能完全不相關(guān),此情況下不同類別標(biāo)簽之間不存在互相約束關(guān)系,標(biāo)簽的判定完全依靠置信度,隨著不同類別的置信度變化,多標(biāo)簽的顯示也會變得混亂,也不利于目標(biāo)信息的統(tǒng)計與整理。基于此情況,本文設(shè)定了一個決定性類別標(biāo)簽概念,并將輔助性類別標(biāo)簽作為關(guān)聯(lián)項,這樣標(biāo)簽之間就不再是完全不相關(guān)的狀態(tài),這些標(biāo)簽之間的聯(lián)系也有利于檢測結(jié)果的反向約束檢查。

        多屬性數(shù)據(jù)集包含車輛類別和車輛顏色,車輛類別有Car、Truck、Bus 三類,車輛顏色有White、Blue、Red、Black,顏色情況如圖6所示。其中車輛類別作為決定性類別標(biāo)簽,即車輛目標(biāo)檢測時,檢測結(jié)果中首先要存在所屬的車輛類別,如果存在車輛類別,再將檢測到的顏色類別加入車輛屬性中,否則在沒有車輛類別的情況下,檢測到的車輛顏色屬性將沒有意義,此時默認為沒有檢測到車輛目標(biāo)。

        圖6 車輛顏色多標(biāo)簽屬性

        通過決定性類別標(biāo)簽的過濾,可以得到準(zhǔn)確可用的車輛目標(biāo)信息,豐富了特殊場景下的車輛屬性信息庫,多屬性目標(biāo)信息為特殊場景下的交通管控提供了更有利的先決條件,為更好地發(fā)展智能交通奠定了良好的基礎(chǔ)。

        2.2 基于YOLOv4的圖像拼接網(wǎng)絡(luò)設(shè)計

        實際交通場景下的車輛目標(biāo)檢測對實時性要求高,只有滿足實時性,通過目標(biāo)檢測得到的車輛屬性信息庫才有應(yīng)用意義,同時因為實際交通道路場景下的監(jiān)控數(shù)量眾多,只有提高網(wǎng)絡(luò)的檢測性能才能滿足工程應(yīng)用需求。滿足實際應(yīng)用需求的首要條件就是在保證檢測正確率的同時目標(biāo)檢測網(wǎng)絡(luò)的檢測速度足夠快,YOLOv4對網(wǎng)絡(luò)結(jié)構(gòu)進行了輕量化修改使得在準(zhǔn)確率相同的情況下速度要遠遠超過其他目標(biāo)檢測網(wǎng)絡(luò),這也是本文以YOLOv4網(wǎng)絡(luò)作為基礎(chǔ)的重要原因之一。

        如圖7 所示的飛機檢測框架是基于SSD 添加了MultiBlock 層和MapBlock 層。通過MultiBlock 層將尺寸很大的遙感圖像分解為512×512大小的小圖,檢測完成后,再通過MapBlock 層將每個塊的預(yù)測結(jié)果都將映射回原始圖像[21]。此方法在提升了檢測速度的同時也保證了檢測結(jié)果的完整性與準(zhǔn)確性,證明了圖像分割與拼接在深度學(xué)習(xí)目標(biāo)檢測中是可行的。通過對此方法的思考和延伸,本文決定采用先拼接后分解的思路來提升檢測網(wǎng)絡(luò)的性能。

        圖7 遙感圖像中飛機檢測網(wǎng)絡(luò)結(jié)構(gòu)

        本文在YOLOv4 的基礎(chǔ)上,在輸入端加入一個Splicing layer網(wǎng)絡(luò)層,將4張1 920×1 080的待檢測圖像拼接成一個3 840×2 160 的大圖,拼接示意圖如圖8 所示。拼接完成后再進行檢測,相當(dāng)于四張圖像只需要調(diào)用一次檢測器,大大提高了車輛目標(biāo)的檢測速度。本文依據(jù)此思想,由于圖像拼接后,整個圖像變大,車輛目標(biāo)相對原始圖像變小,為了保證訓(xùn)練權(quán)重適用于拼接圖像的檢測,本文在多樣化數(shù)據(jù)集基礎(chǔ)上重新制作了一個拼接圖像數(shù)據(jù)集,先將圖片拼接后再進行樣本數(shù)據(jù)標(biāo)記工作,用拼接數(shù)據(jù)集進行深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練,得到適用的檢測所需權(quán)重文件。由于原圖片的分辨率已經(jīng)很高,拼接圖片的大小就變得很大,導(dǎo)致訓(xùn)練速度變慢,但為了保證圖像的質(zhì)量,本文并沒有對圖像做縮放操作,盡可能地保證檢測擁有足夠的精度。

        圖8 網(wǎng)絡(luò)示意圖

        在車輛目標(biāo)檢測完成后,本文還加入了對應(yīng)的分解操作,因為檢測到的結(jié)果是相對于拼接后的大圖而言的,需將拼接后的圖像檢測結(jié)果回歸到單一的圖像幀中。分解層先通過對檢測結(jié)果進行判斷,判定檢測框所在的原始圖像,再根據(jù)不同位置圖片對應(yīng)的坐標(biāo)位置對檢測結(jié)果進行修改,從而完成檢測結(jié)果的分解。經(jīng)過上述Splicing layer 與Separate layer 的操作,在保證檢測精度的同時,大大提高了檢測速度。因此,改進的圖像拼接網(wǎng)絡(luò)可以滿足實際工程應(yīng)用中的實時性要求。

        3 實驗分析與結(jié)果

        3.1 實驗環(huán)境與實驗數(shù)據(jù)集

        硬件環(huán)境:系統(tǒng)類型為Windows10 64 位操作系統(tǒng)和基于x64 的處理器安裝RAM 的內(nèi)存64 GB,使用GPU 為NVIDIA GeForce RTX 3090,24 GB 顯卡。軟件環(huán)境:輔助環(huán)境為CUDA v11.1,OpenCV 4.4.0。

        對發(fā)電機整體在安裝彈性支撐為10kN/mm的彈性支撐時進行模態(tài)仿真分析,彈性支撐主要參數(shù)如表4和表5所示,前9階振動頻率如表6所示,其中前9階靜態(tài)剛度時振型如圖3所示(由于前9階振型一致只是頻率不一致,動態(tài)剛度振型圖在此省略)。

        本文對不同交通場景運用了不同的對應(yīng)數(shù)據(jù)集進行了測試,在實驗部分所使用的數(shù)據(jù)如表2 所示,本文建立的數(shù)據(jù)集共計74 082 張圖片,其中包含了不同場景、不同角度以及不同時段的豐富數(shù)據(jù)集。

        表2 數(shù)據(jù)集樣本數(shù)量

        不同交通場景下足夠豐富的樣本量保證了訓(xùn)練結(jié)果的適應(yīng)性和可靠性,提高了車輛目標(biāo)檢測的精度。

        3.2 基于YOLOv4的目標(biāo)檢測模型實驗

        在訓(xùn)練時,將數(shù)據(jù)集的80%數(shù)據(jù)用于訓(xùn)練,20%數(shù)據(jù)用于測試。本文在原數(shù)據(jù)基礎(chǔ)上進行了數(shù)據(jù)增廣,通過Mosaic 方法對圖像進行隨機縮放,隨機裁剪以及隨機排布操作,本文設(shè)置圖像隨機旋轉(zhuǎn)參數(shù)0.5,隨機曝光參數(shù)1.5,飽和度參數(shù)1.5,豐富了訓(xùn)練數(shù)據(jù)。本文為設(shè)置學(xué)習(xí)率為0.001,訓(xùn)練最大迭代次數(shù)為50 000次,同時為了模型盡可能的收斂,在訓(xùn)練次數(shù)達到40 000 次時,調(diào)整學(xué)習(xí)率為0.000 5。輸入到網(wǎng)絡(luò)的圖像,分辨率先調(diào)整為416×416,訓(xùn)練時采用batch 為8,以便網(wǎng)絡(luò)快速的運行。模型訓(xùn)練loss 收斂情況如圖9 所示,圖中展示了隨著迭代次數(shù)的增加,loss 的收斂情況以及mAP的變化情況??梢钥闯?,無論場景,模型都均在迭代3 000 次時趨于收斂,隨著loss 的降低,mAP 也達到了較高水平。

        圖9 模型訓(xùn)練loss收斂

        卷積神經(jīng)網(wǎng)絡(luò)會提取圖像目標(biāo)的關(guān)鍵特征,本文檢測目標(biāo)有Car、Truck、Bus三類,每一類的特征如圖10各類目標(biāo)特征圖所示,通過不同類別車輛在卷積網(wǎng)絡(luò)中呈現(xiàn)的不同特征,即可對其進行分類與檢測。

        圖10 分類目標(biāo)特征圖

        本文使用以下指標(biāo)對目標(biāo)檢測結(jié)果進行評估:

        AP(Average Precision)即平均精度,是主流的目標(biāo)檢測模型的評價指標(biāo)。要想正確的理解AP,需要用到Precision、Recall 以及IoU 這三個概念。交并比(IoU)衡量的是兩個區(qū)域的重疊程度,模型產(chǎn)生的目標(biāo)窗口與原來標(biāo)記窗口的交疊率,即為檢測的準(zhǔn)確率IoU。計算公式如式(2)所示,理想情況下,IoU=1,即完全重合。

        精準(zhǔn)率與召回率(Precision &Recall):目標(biāo)檢測領(lǐng)域,假設(shè)有一組圖片,里面有若干待檢測的目標(biāo),Precision就代表模型檢測出來的目標(biāo)有多大比例是真正的目標(biāo)物體,Recall就代表所有真實的目標(biāo)有多大比例被模型檢測出來了。根據(jù)圖11,可以直觀地看出TP 表示樣本被分為正樣本且分配正確,TN 表示樣本被分為樣本且分配正確,F(xiàn)P 表示樣本被分為正樣本但分配錯誤,F(xiàn)N表示樣本被分為負樣本但分配錯誤。計算Precision 和Recall的值依靠如式(3)、(4)所示:

        圖11 TP、TN、FP、FN示意圖

        根據(jù)公式計算數(shù)值后可以畫出一條P-R 曲線,而AP就是對PR曲線上的Precision值求均值,為了使得到的結(jié)果更準(zhǔn)確,對P-R 曲線做平滑處理,用積分的方式計算平滑曲線下方的面積作為最終的AP值。計算公式如式(5)所示:

        F1-Score 又稱F1 分數(shù),是分類問題的一個衡量指標(biāo),常作為多分類問題的最終指標(biāo),它是精度和召回率的調(diào)和平均數(shù)。對于單個類別的F1 分數(shù),計算公式如式(6)所示:

        而后計算所有類別的平均值,記為F1,計算公式如式(7)所示:

        mAP 即把所有的類別的AP 都計算出來然后求均值,計算公式如式(8)所示:

        3.2.1 對不同場景下單標(biāo)簽?zāi)P偷脑u估

        根據(jù)上述評估維度,本文對訓(xùn)練出的不同應(yīng)用模型采用對應(yīng)的數(shù)據(jù)集中的測試集進行測試評估,評估結(jié)果如表3所示。

        表3 單標(biāo)簽?zāi)P驮u估結(jié)果 %

        從表3可以看出,白天場景模型的車輛目標(biāo)檢測效果最好,因為白天時段的可見度好、目標(biāo)特征明顯,得到的模型也更加精準(zhǔn)。隧道場景下的光照條件較差,且隧道中的車速較低導(dǎo)致車輛間距小,更易出現(xiàn)車輛互相遮擋情況,特別是卡車或公交體型較大的車對其他車輛的遮擋比較嚴重,從而影響車輛的整體檢測效果。夜晚模型的檢測效果相對其他模型來說表現(xiàn)較差,這是由于夜晚時段目標(biāo)的特征太難分辨,而且夜晚監(jiān)控中的車輛燈光曝光度很大,使得目標(biāo)的種類很難被辨認出來,導(dǎo)致檢測效果不佳。從整體來看,所有模型的Bus檢測準(zhǔn)確率比其他類別低,主要因為Bus的樣本數(shù)量大大少于其他類別。不過三種不同模型的mAP 都達到了80%以上,白天模型更是突破了90%,所以本文提出的模型是可靠的且完全適用于高速公路場景。

        同時,檢測網(wǎng)絡(luò)無法精準(zhǔn)的檢測到小目標(biāo)一直是目標(biāo)檢測中的一個關(guān)鍵問題,如圖12 所示的實驗測試結(jié)果,網(wǎng)絡(luò)對圖像中小目標(biāo)的檢測效果良好,即使視頻遠端的小目標(biāo)也可以被正確的檢測出來。

        圖12 小目標(biāo)檢測測試結(jié)果

        3.2.2 對隧道多標(biāo)簽?zāi)P偷脑u估

        隧道多標(biāo)簽實驗使用隧道場景測試視頻,輸入32 705幀分辨率為1 920×1 080 的視頻,在車輛類別正確的情況下,統(tǒng)計車輛顏色是否正確。多標(biāo)簽?zāi)P蛯嶒灲Y(jié)果如圖13 所示,多標(biāo)簽?zāi)P蛙囕v類別的統(tǒng)計結(jié)果如表4 所示,多標(biāo)簽車輛顏色統(tǒng)計結(jié)果如表5所示。

        圖13 多標(biāo)簽?zāi)P蛯嶒灲Y(jié)果

        表4 多標(biāo)簽?zāi)P蛙囕v類別評估結(jié)果

        從圖13中的左圖可以看出當(dāng)車輛在特征容易分辨的監(jiān)控近端時,車輛類別和顏色都可以正確的檢測出來,多標(biāo)簽結(jié)果也正確標(biāo)注在圖上。從圖13 中的右圖可以看出,當(dāng)車輛行駛到視頻遠端區(qū)域成為形變明顯的遠端小目標(biāo)時,車輛類別仍然可以準(zhǔn)確檢測,但由于距離過遠以及隧道光線昏暗,顏色信息無法準(zhǔn)確獲得,網(wǎng)絡(luò)會對顏色標(biāo)簽進行缺省。

        表4 展示了多標(biāo)簽?zāi)P蛯嶒炛熊囕v類別的統(tǒng)計結(jié)果,三類車輛的檢測準(zhǔn)確率均可以達到90%以上,Bus的準(zhǔn)確率略低,主要原因是Bus的樣本數(shù)量與其他兩類樣本數(shù)量有較大差距,樣本豐富程度不足,且Bus 的特征在光照不好的隧道場景下容易與Truck 產(chǎn)生混淆,從而導(dǎo)致檢測準(zhǔn)確率下降。

        從表5 中可以看出,在車輛類別正確的前提下,檢測到的顏色標(biāo)簽實際數(shù)量可以達到車輛實際數(shù)量的85%~92%,整體檢測準(zhǔn)確率可以達到應(yīng)用要求。準(zhǔn)確率較低的情況普遍是由于顏色類別所對應(yīng)的車輛數(shù)目較少,特別是卡車和公交的樣本顏色分布不均,模型對樣本數(shù)量小的顏色識別準(zhǔn)確率有限,后期可通過增加樣本顏色數(shù)量來提升檢測精度。

        表5 多標(biāo)簽?zāi)P蛙囕v顏色評估結(jié)果

        3.3 基于YOLOv4的圖像拼接網(wǎng)絡(luò)實驗

        進行車輛目標(biāo)檢測效率實驗,實驗輸入一個總計44 094 幀分辨率為1 920×1 080 的視頻,驗證圖像拼接帶來的速度效率提升效果,整體實驗流程如圖14所示,得到正確的檢測結(jié)果后,根據(jù)不同位置圖片對應(yīng)的坐標(biāo)位置對檢測結(jié)果進行修改,完成檢測結(jié)果的分解如圖15所示。用無拼圖網(wǎng)絡(luò)和拼圖網(wǎng)絡(luò)分別進行測試并統(tǒng)計測試結(jié)果,測試結(jié)果如表6所示。

        表6 圖像拼接網(wǎng)絡(luò)實驗結(jié)果

        圖14 圖像拼接網(wǎng)絡(luò)實驗流程

        如圖15(a)所示,輸入四張原始圖像,經(jīng)過拼接網(wǎng)絡(luò)拼接拼接后執(zhí)行檢測,得到拼接圖像的檢測結(jié)果如圖15(b)所示,此時的檢測結(jié)果坐標(biāo)是依據(jù)拼接后的圖像得到的,需要對結(jié)果進行分解,檢測結(jié)果正確的顯示到各原始圖像上如圖15(c)所示。

        圖15 拼接網(wǎng)絡(luò)結(jié)果分解

        坐標(biāo)分解情況如圖16所示,其中x、y代表檢測框的左上角坐標(biāo),w、h代表檢測框的寬高。通過檢測框的坐標(biāo)信息,將檢測框回歸到原始圖像上,例如第一行的第一張圖對應(yīng)的檢測框坐標(biāo)x應(yīng)當(dāng)小于1 920,y應(yīng)當(dāng)小于1 080,第一行的第二張圖對應(yīng)的檢測框坐標(biāo)x應(yīng)當(dāng)大于1 920并小于3 840,y應(yīng)當(dāng)小于1 080,以此類推,將拼接檢測結(jié)果正確地回歸到原始圖像。

        圖16 坐標(biāo)分解結(jié)果

        根據(jù)表6 中數(shù)據(jù)可以看出在保證平均檢測精度(mAP)的同時,使用拼圖檢測網(wǎng)絡(luò)的檢測速度得到了大幅度提升,檢測效率的提升可以使網(wǎng)絡(luò)可以更好滿足實際工程需要,為后期應(yīng)用奠定了良好的基礎(chǔ)。

        4 結(jié)束語

        本文首先構(gòu)建了一個數(shù)據(jù)樣本豐富的高速場景多樣化數(shù)據(jù)集,數(shù)據(jù)集涵蓋全天候下的高速公路監(jiān)控不同路段以及不同視角的眾多場景,提供了一個針對高速場景下車輛目標(biāo)檢測適用性極強的數(shù)據(jù)集。同時,本文使用YOLOv4網(wǎng)絡(luò)進行目標(biāo)檢測,多樣化數(shù)據(jù)集從根源上增加了對車輛目標(biāo)的檢測精度,基于該網(wǎng)絡(luò)本文研究了多標(biāo)簽檢測與拼圖檢測的方法,多標(biāo)簽檢測豐富了目標(biāo)檢測的結(jié)果,有利于構(gòu)建更完善準(zhǔn)確的車輛信息庫,以便于進一步的交通監(jiān)測和優(yōu)化。拼圖檢測大幅提升了網(wǎng)絡(luò)運行效率,更加符合工程實踐要求,這些改進能夠在實際應(yīng)用中發(fā)揮重大作用。

        猜你喜歡
        檢測
        QC 檢測
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        “幾何圖形”檢測題
        “角”檢測題
        “有理數(shù)的乘除法”檢測題
        “有理數(shù)”檢測題
        “角”檢測題
        “幾何圖形”檢測題
        久久人妻一区二区三区免费| 国产美女一级做a爱视频| 亚洲亚洲亚洲亚洲亚洲天堂| 三级国产自拍在线观看| 亚洲av一二三区成人影片| 国产亚洲精品久久久久婷婷瑜伽| 国产日韩久久久精品影院首页| 久久久精品国产亚洲av网| 91精品国产在热久久| 午夜福利av无码一区二区| a毛片全部免费播放| 黄色三级视频中文字幕| 国产精品熟女一区二区三区 | 高清毛茸茸的中国少妇| 99精品免费久久久久久久久日本| 国产精品白浆无码流出| 国产又湿又爽又猛的视频| 亚洲线精品一区二区三区| 内射无码专区久久亚洲| 中出高潮了中文字幕| 日本韩国三级在线观看| 人妻少妇精品无码专区| 99亚洲精品久久久99| 国产精品亚洲av网站| 中文字幕av长濑麻美| 亚洲精品午夜无码专区| 在线不卡av天堂| 日本熟妇免费一区二区三区| 婷婷精品国产亚洲av麻豆不片| 亚洲精品久久久久久久久av无码 | 天堂√在线中文官网在线| 国产精品自在线免费| 丝袜美腿av免费在线观看| 99噜噜噜在线播放| 久久伊人色av天堂九九| 国产欧美亚洲另类第一页| 国产高清一区二区三区三州| 少妇高潮流白浆在线观看| 人妻AV无码一区二区三区奥田咲| 精品国产麻豆免费人成网站| 美女扒开大腿让男人桶 |