亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        改進(jìn)輕量型YOLOV4的目標(biāo)監(jiān)測(cè)系統(tǒng)

        2022-10-17 13:53:34劉蘇剛陳清平徐文剛
        關(guān)鍵詞:環(huán)境檢測(cè)模型

        劉蘇剛,蔣 剛+,朱 昊,陳清平,徐文剛,黃 璜

        (1.成都理工大學(xué) 機(jī)電工程學(xué)院,四川 成都 610059; 2.成都陵川特種工業(yè)有限責(zé)任公司 科技管理部,四川 成都 610105)

        0 引 言

        隨著科技的快速發(fā)展,對(duì)目標(biāo)物體識(shí)別精度以及復(fù)雜環(huán)境下適應(yīng)能力的要求不斷提高,結(jié)合深度學(xué)習(xí)框架的目標(biāo)監(jiān)測(cè)系統(tǒng)成為了當(dāng)前研究的熱點(diǎn)。目前,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法主要分為兩大類別,一類是由Faster R-CNN[1]為代表的two-stage目標(biāo)檢測(cè)算法,該類算法擁有較高的識(shí)別精度但不能滿足實(shí)時(shí)性的要求,無(wú)法較好地進(jìn)行目標(biāo)檢測(cè)工程化應(yīng)用,另一類是由SSD(single shot multibox detector)[2]、YOLO(you only look once)[3-5]系列為代表的one-stage目標(biāo)檢測(cè)算法,該類算法能夠滿足實(shí)時(shí)性的工程化應(yīng)用條件。高楊等[6]提出多層特征融合算法,相較于Faster R-CNN犧牲了一定的檢測(cè)速度換來(lái)了精度的提高。嚴(yán)開忠等[7]對(duì)YOLOV3進(jìn)行改進(jìn),有效提升了目標(biāo)檢測(cè)速度,但導(dǎo)致精度降低。羅建華等[8]則通過(guò)改進(jìn)YOLOV3,在不影響檢測(cè)速度情況下提高道路目標(biāo)檢測(cè)精度。薛志峰等[9]將YOLOV3與STM32結(jié)合,實(shí)現(xiàn)手勢(shì)交互的工程化應(yīng)用,但交互過(guò)程受外界環(huán)境影響較大。

        為了達(dá)到昏暗復(fù)雜環(huán)境下檢測(cè)精度與速度的平衡,實(shí)現(xiàn)工程應(yīng)用。本文在YOLOV4[10]輕量型目標(biāo)檢測(cè)算法上進(jìn)行改進(jìn),融入圖像增強(qiáng)算法,在滿足目標(biāo)檢測(cè)速度要求的同時(shí),提升了昏暗復(fù)雜環(huán)境下的目標(biāo)檢測(cè)精度,同時(shí)能解決目標(biāo)漏檢與誤檢問(wèn)題。改進(jìn)后的算法與zed雙目相機(jī)結(jié)合,為監(jiān)測(cè)系統(tǒng)的建立提供視覺(jué)支持,建立了針對(duì)昏暗復(fù)雜環(huán)境的智能化實(shí)時(shí)目標(biāo)監(jiān)測(cè)系統(tǒng)。

        1 昏暗復(fù)雜環(huán)境下的目標(biāo)監(jiān)測(cè)系統(tǒng)整體架構(gòu)

        監(jiān)測(cè)系統(tǒng)的建立分為多源數(shù)據(jù)采集階段、圖像處理階段、數(shù)據(jù)決策階段、工程實(shí)現(xiàn)階段。監(jiān)測(cè)系統(tǒng)整體架構(gòu)如圖1所示。

        監(jiān)測(cè)系統(tǒng)實(shí)時(shí)采集由zed雙目相機(jī)所獲取的圖像深度點(diǎn)云數(shù)據(jù)以及目標(biāo)檢測(cè)信息,目標(biāo)檢測(cè)信息是由zed雙目相機(jī)所獲取的每幀圖像通過(guò)進(jìn)入昏暗復(fù)雜環(huán)境下目標(biāo)檢測(cè)模型進(jìn)行目標(biāo)識(shí)別得到。當(dāng)數(shù)據(jù)采集完成后系統(tǒng)進(jìn)行數(shù)據(jù)決策,建立MYSQL數(shù)據(jù)庫(kù)連接及底層通信管道,發(fā)送決策指令實(shí)現(xiàn)智能化監(jiān)測(cè)相關(guān)功能。

        2 昏暗復(fù)雜環(huán)境下的目標(biāo)檢測(cè)

        2.1 目標(biāo)監(jiān)測(cè)系統(tǒng)應(yīng)用場(chǎng)景

        監(jiān)測(cè)系統(tǒng)在昏暗復(fù)雜環(huán)境下進(jìn)行目標(biāo)檢測(cè),圖像增強(qiáng)算法將zed雙目相機(jī)采集的每幀圖像進(jìn)行去噪、輪廓增強(qiáng)及對(duì)比度增強(qiáng),讓檢測(cè)目標(biāo)的細(xì)節(jié)信息更加豐富,幫助目標(biāo)檢測(cè)模型更好地進(jìn)行目標(biāo)識(shí)別,提高系統(tǒng)的魯棒性與實(shí)用性。

        2.2 昏暗復(fù)雜環(huán)境下圖像增強(qiáng)算法

        監(jiān)測(cè)系統(tǒng)運(yùn)動(dòng)過(guò)程中,受外部復(fù)雜環(huán)境的干擾,圖像獲取會(huì)產(chǎn)生一定不可避免的噪聲突變點(diǎn),系統(tǒng)需進(jìn)行噪聲突變點(diǎn)的消除,本文采用中值濾波法進(jìn)行噪聲突變點(diǎn)的濾除。

        本文是對(duì)彩色圖像進(jìn)行圖像增強(qiáng),彩色圖像分為R、G、B這3個(gè)通道。令f(i,j) 為獲取二維圖像所對(duì)應(yīng)的像素值,進(jìn)行像素值歸一化,使0≤f(i,j)≤255。 將監(jiān)測(cè)系統(tǒng)實(shí)時(shí)傳入的圖像進(jìn)行噪聲突變點(diǎn)消除,即

        fout=median(f1,f2,f3,…,f9)

        (1)

        式(1)中,采用3×3的運(yùn)算區(qū)域,fout為濾波后得到的像素值,f1,f2,f3,…,f9為運(yùn)算區(qū)域中排序好的像素值,通過(guò)median()函數(shù)取出中間值進(jìn)行賦值操作,有效消除噪聲突變點(diǎn)。

        式(1)后,得到去噪后的圖像信息。為了進(jìn)一步加強(qiáng)目標(biāo)物體的邊緣輪廓,需進(jìn)行相應(yīng)目標(biāo)邊緣輪廓的增強(qiáng),也就是圖像的銳化操作。計(jì)算二維圖像函數(shù)f(x,y) 的一階偏導(dǎo),用差分形式近似代替一階偏導(dǎo),可得

        (2)

        (3)

        (4)

        (5)

        式(5)中,a=1,通過(guò)上式可以計(jì)算出此時(shí)邊緣信息增強(qiáng)后的圖像函數(shù)h(x,y), 使圖像中目標(biāo)物體輪廓更加清晰。

        在昏暗復(fù)雜環(huán)境下,需對(duì)圖像進(jìn)行對(duì)比度增強(qiáng),使該特定環(huán)境下未顯示的目標(biāo)細(xì)節(jié)信息呈現(xiàn)出來(lái)。本文采用直方圖均衡化進(jìn)行后續(xù)圖像處理,處理的彩色圖像為24位,每個(gè)單通道各占8位,因此單通道的灰度級(jí)為256種,統(tǒng)計(jì)圖像數(shù)據(jù)中不同灰度級(jí)像素個(gè)數(shù)可得

        Count(k)=mk

        (6)

        式(6)中,0≤k≤255,mk表示不同通道下,灰度級(jí)為k的像素總個(gè)數(shù),Count(k)表示統(tǒng)計(jì)的灰度級(jí)為k的像素總個(gè)數(shù),計(jì)算灰度級(jí)概率分布可得

        (7)

        通過(guò)式(7)可得到圖像灰度級(jí)出現(xiàn)概率,然后進(jìn)行相應(yīng)累加概率計(jì)算可得

        (8)

        式(8)中,0≤n≤255,在這之后利用累加概率計(jì)算新的灰度級(jí)然后進(jìn)行灰度級(jí)像素個(gè)數(shù)重新分配,可得新的映射灰度級(jí)

        (9)

        式(9)得到對(duì)比度增大后新的灰度級(jí),進(jìn)行灰度級(jí)k的像素與hk的像素映射,映射完成后,系統(tǒng)得到對(duì)比度增強(qiáng)后的圖像信息。

        監(jiān)測(cè)系統(tǒng)實(shí)時(shí)傳入的圖像通過(guò)圖像增強(qiáng)算法,能夠?qū)崿F(xiàn)噪聲突變點(diǎn)去除、圖像邊緣信息增加及對(duì)比度增強(qiáng),從而為監(jiān)測(cè)系統(tǒng)后續(xù)的目標(biāo)檢測(cè)提供相應(yīng)的圖像數(shù)據(jù)支持。

        2.3 YOLOV4-tiny目標(biāo)檢測(cè)算法

        YOLOV4-tiny是相較于YOLOV4的一種輕量型目標(biāo)檢測(cè)算法。該目標(biāo)檢測(cè)算法為達(dá)到較高的目標(biāo)檢測(cè)速度,降低了骨架網(wǎng)絡(luò)(CSPDarknet53-Tiny)復(fù)雜度,使骨架網(wǎng)絡(luò)由3個(gè)CBL(conv batch normalization leaky rectified linear unit)結(jié)構(gòu)以及由3個(gè)CSP(cross stage partial connections)[11]與池化層組成的CSP_body結(jié)構(gòu)所構(gòu)成。激活函數(shù)替換為L(zhǎng)eakyRelu(leaky rectified linear unit)。從骨架網(wǎng)絡(luò)中引入兩個(gè)有效特征層進(jìn)入FPN(feature pyramid networks)[12]結(jié)構(gòu)后由YOLO-head輸出最終結(jié)果。YOLOV4-tiny結(jié)構(gòu)如圖2所示。

        2.4 目標(biāo)檢測(cè)改進(jìn)算法

        監(jiān)測(cè)系統(tǒng)為提高目標(biāo)檢測(cè)精度,對(duì)YOLOV4-tiny目標(biāo)檢測(cè)模型進(jìn)行了一定的改進(jìn)。在YOLOV4-tiny目標(biāo)檢測(cè)算法的兩層特征層的基礎(chǔ)上增加兩層更淺層特征層,將從骨架網(wǎng)絡(luò)中獲取到的四層有效特征層進(jìn)行提取和疊加操作,使目標(biāo)檢測(cè)過(guò)程中更多目標(biāo)特征被融合,從而達(dá)到增大感受野的同時(shí)保留圖像更多的細(xì)節(jié)信息。通過(guò)改進(jìn)FPN結(jié)構(gòu)可以使監(jiān)測(cè)系統(tǒng)在實(shí)際的目標(biāo)檢測(cè)過(guò)程中獲取到更多的目標(biāo)物體的特征,不丟失圖像的一些細(xì)節(jié)信息,這樣系統(tǒng)就能夠比較好地判別目標(biāo)物體的類別,提高目標(biāo)物體的識(shí)別準(zhǔn)確率。針對(duì)昏暗復(fù)雜環(huán)境,監(jiān)測(cè)系統(tǒng)能夠較大程度保留周圍環(huán)境中目標(biāo)的特征,使模型更好地滿足實(shí)際工程的要求,F(xiàn)PN改進(jìn)結(jié)構(gòu)如圖3所示。

        為了能夠進(jìn)行昏暗復(fù)雜環(huán)境下的目標(biāo)檢測(cè)工作,在目標(biāo)檢測(cè)模型中引入特定圖像增強(qiáng)算法。在目標(biāo)檢測(cè)前進(jìn)行圖像增強(qiáng),有助于實(shí)際目標(biāo)檢測(cè)工作的進(jìn)行,引入圖像增強(qiáng)算法流程如圖4所示。

        監(jiān)測(cè)系統(tǒng)通過(guò)將實(shí)時(shí)傳入的每幀圖像進(jìn)行圖像增強(qiáng)之后,主要達(dá)到以下3種效果,分別為①去除圖像中噪聲信息,防止不必要的外部環(huán)境強(qiáng)烈干擾,從而保證在圖像獲取過(guò)程中圖像質(zhì)量不受到影響;②增加目標(biāo)物體相應(yīng)的邊緣信息,使目標(biāo)物體的輪廓更加的清晰,有利于目標(biāo)檢測(cè)模型的特征提取;③暴露更多潛藏在昏暗復(fù)雜環(huán)境中圖像的細(xì)節(jié)信息,使監(jiān)測(cè)系統(tǒng)在不借助外部光照輔助的情況下能夠正常地進(jìn)行目標(biāo)檢測(cè)工作,有助于監(jiān)測(cè)系統(tǒng)的檢測(cè)視野不受到昏暗復(fù)雜環(huán)境的影響。通過(guò)以上3點(diǎn)能夠達(dá)到在保持系統(tǒng)的魯棒性的同時(shí),提高系統(tǒng)的隱蔽性與安全性。

        改進(jìn)的目標(biāo)檢測(cè)算法為滿足監(jiān)測(cè)系統(tǒng)進(jìn)行實(shí)時(shí)目標(biāo)監(jiān)測(cè)工程化應(yīng)用的要求,保留了YOLOV4-tiny目標(biāo)檢測(cè)算法的原有的骨架網(wǎng)絡(luò),使系統(tǒng)本身能夠達(dá)到較高的目標(biāo)檢測(cè)速度。為彌補(bǔ)原目標(biāo)檢測(cè)模型的目標(biāo)檢測(cè)精度不高的缺點(diǎn),優(yōu)化原有FPN網(wǎng)絡(luò)結(jié)構(gòu),從而使改進(jìn)后的算法模型達(dá)到目標(biāo)檢測(cè)過(guò)程中速度與精度的雙向平衡。為讓系統(tǒng)適應(yīng)昏暗復(fù)雜環(huán)境,引入圖像增強(qiáng)算法,使系統(tǒng)適應(yīng)特定復(fù)雜環(huán)境的能力提高?;璋祻?fù)雜環(huán)境下目標(biāo)檢測(cè)算法流程如圖5所示。

        3 目標(biāo)監(jiān)測(cè)系統(tǒng)工程化應(yīng)用

        3.1 雙目相機(jī)結(jié)合目標(biāo)檢測(cè)改進(jìn)算法

        監(jiān)測(cè)系統(tǒng)在進(jìn)行目標(biāo)檢測(cè)過(guò)程中,實(shí)時(shí)傳入的每幀圖像為系統(tǒng)的目標(biāo)檢測(cè)模型提供相應(yīng)的數(shù)據(jù)支持。為了完成每幀圖像的獲取工作,將改進(jìn)后的目標(biāo)檢測(cè)算法與zed雙目相機(jī)進(jìn)行相應(yīng)的算法融合。zed雙目相機(jī)采集到的每幀圖像數(shù)據(jù)經(jīng)過(guò)改進(jìn)后的目標(biāo)檢測(cè)模型實(shí)現(xiàn)實(shí)時(shí)目標(biāo)檢測(cè)。zed雙目相機(jī)與優(yōu)化算法的融合流程如圖6所示。

        圖6中,系統(tǒng)獲取zed雙目相機(jī)所捕捉的每幀圖像,先進(jìn)行相應(yīng)尺寸變換,將圖像轉(zhuǎn)換為(416,416)的尺寸格式,以滿足目標(biāo)檢測(cè)模型輸入圖像尺寸要求,之后圖像通過(guò)顏色通道轉(zhuǎn)換后再轉(zhuǎn)為Image圖像格式進(jìn)入目標(biāo)檢測(cè)模型。當(dāng)每幀圖像傳入模型之后還要進(jìn)行相應(yīng)的圖像數(shù)據(jù)歸一化以及維度順序變換以滿足目標(biāo)檢測(cè)模型對(duì)圖像數(shù)據(jù)的特定要求。當(dāng)圖像識(shí)別完成,經(jīng)顏色通道轉(zhuǎn)換,利用OpenCV進(jìn)行實(shí)時(shí)顯示,進(jìn)而觀察優(yōu)化算法與zed雙目相機(jī)融合之后實(shí)時(shí)目標(biāo)檢測(cè)效果。

        3.2 監(jiān)測(cè)系統(tǒng)數(shù)據(jù)采集

        監(jiān)測(cè)系統(tǒng)利用zed雙目相機(jī)獲取圖像的深度點(diǎn)云數(shù)據(jù)進(jìn)行監(jiān)測(cè)目標(biāo)的距離與方位角的計(jì)算,從而完成相應(yīng)的數(shù)據(jù)采集工作。

        OLeft與ORight為zed雙目相機(jī)左右相機(jī)的光心,本文將zed雙目相機(jī)的左相機(jī)光心作為初始空間坐標(biāo)原點(diǎn),空間坐標(biāo)為 (0,0,0), 令P點(diǎn)相對(duì)于左相機(jī)光心的空間坐標(biāo)點(diǎn)為 (x,y,z), 空間P點(diǎn)對(duì)應(yīng)左右相機(jī)的目標(biāo)像素點(diǎn)為PLeft(xl,yl)、 PRight(xr,yr), zed雙目相機(jī)的焦距d與左右相機(jī)的基線lbase都可由相機(jī)本身獲取。本文根據(jù)視差測(cè)量法,利用三角形相似原理求解出空間P點(diǎn)的z的取值,如圖7(a)所示

        (10)

        式(10)中dvisual=xl-xr, 通過(guò)相應(yīng)x、y、z的等式關(guān)系,結(jié)合空間點(diǎn)P在左相機(jī)所對(duì)應(yīng)的目標(biāo)像素點(diǎn),可分別求出x,y的取值

        (11)

        (12)

        通過(guò)式(10)~式(12)分別求出x、y、z的取值。獲取到的P(x,y,z) 坐標(biāo)值,是P相對(duì)于左相機(jī)光心的坐標(biāo)取值,在此完成對(duì)于監(jiān)測(cè)目標(biāo)空間點(diǎn)的三維重構(gòu),如圖7(b)所示。

        目標(biāo)空間坐標(biāo)點(diǎn)P相對(duì)于原點(diǎn)OLeft的取值分別為x、y、z,原點(diǎn)OLeft的三維空間坐標(biāo)為 (0,0,0), 由此可計(jì)算空間坐標(biāo)點(diǎn)P距zed雙目相機(jī)的左相機(jī)原點(diǎn)OLeft的距離

        (13)

        空間點(diǎn)P的坐標(biāo)點(diǎn)經(jīng)過(guò)三維重建后,將空間點(diǎn)P(x,y,z) 映射到XOLeftY二維平面上,本文將X軸方向作為方位角計(jì)算的參考正方向,在XOLeftY二維平面內(nèi)進(jìn)行目標(biāo)物體坐標(biāo)方位角的求解,可得

        (14)

        通過(guò)式(14)計(jì)算出目標(biāo)物體相對(duì)于坐標(biāo)原點(diǎn)OLeft的方位角,方位角的取值范圍0°≤angle_object≤360°。

        昏暗復(fù)雜環(huán)境下,監(jiān)測(cè)系統(tǒng)在混合路況場(chǎng)景進(jìn)行智能化目標(biāo)監(jiān)測(cè)任務(wù)時(shí),通過(guò)對(duì)目標(biāo)空間點(diǎn)的三維重構(gòu)求解出方位角和目標(biāo)距離,從而完成相應(yīng)的數(shù)據(jù)采集,為監(jiān)測(cè)系統(tǒng)之后的數(shù)據(jù)決策提供相應(yīng)的數(shù)據(jù)支持。

        3.3 監(jiān)測(cè)系統(tǒng)數(shù)據(jù)決策與自動(dòng)控制

        監(jiān)測(cè)系統(tǒng)需將獲取到的目標(biāo)距離與方位角以及經(jīng)過(guò)目標(biāo)檢測(cè)后的目標(biāo)檢測(cè)信息進(jìn)行融合,經(jīng)過(guò)數(shù)據(jù)決策后形成相應(yīng)的決策指令實(shí)現(xiàn)智能化目標(biāo)監(jiān)測(cè),決策控制流程如圖8所示。

        決策控制過(guò)程,主要實(shí)現(xiàn)預(yù)警信號(hào)收發(fā)、預(yù)警指示燈開閉、異常數(shù)據(jù)存儲(chǔ)和智能避障功能,從而構(gòu)建出一個(gè)智能化的監(jiān)測(cè)系統(tǒng)。針對(duì)異常數(shù)據(jù)的存儲(chǔ),本文用到了MYSQL數(shù)據(jù)庫(kù)作為異常數(shù)據(jù)存儲(chǔ)的媒介,從而完成相應(yīng)異常數(shù)據(jù)的存儲(chǔ),在異常數(shù)據(jù)存儲(chǔ)之后,系統(tǒng)授權(quán)用戶還能進(jìn)行相關(guān)異常數(shù)據(jù)的共享,其它功能則是依靠底層STM32主控端與上層搭建相應(yīng)的通信管道實(shí)現(xiàn)。系統(tǒng)為保證數(shù)據(jù)的完整性與安全性,將決策指令采用相應(yīng)的通信協(xié)議通過(guò)通信管道下發(fā)底層,從而實(shí)現(xiàn)監(jiān)測(cè)系統(tǒng)的自動(dòng)控制。

        4 系統(tǒng)實(shí)驗(yàn)結(jié)果與分析

        監(jiān)測(cè)系統(tǒng)進(jìn)行分析的實(shí)驗(yàn)結(jié)果包括圖像處理階段中目標(biāo)檢測(cè)模型所得的實(shí)驗(yàn)結(jié)果以及由OpenCV實(shí)時(shí)顯示監(jiān)測(cè)系統(tǒng)的測(cè)試結(jié)果。通過(guò)以上實(shí)驗(yàn)結(jié)果分析確保監(jiān)測(cè)系統(tǒng)能夠完成昏暗復(fù)雜環(huán)境下目標(biāo)監(jiān)測(cè)的任務(wù)。

        4.1 目標(biāo)檢測(cè)模型數(shù)據(jù)集

        4.2 目標(biāo)檢測(cè)模型實(shí)驗(yàn)平臺(tái)

        訓(xùn)練平臺(tái)采用的顯卡為GeForce RTX 2080Ti,CPU為i9-10900X,操作系統(tǒng)為64位ubuntu 16.04。訓(xùn)練中batch_size設(shè)置為8,訓(xùn)練epoch設(shè)置為100,num_workers設(shè)置為4,輸入圖片尺寸格式為(416,416),CUDA為10.0.130。測(cè)試平臺(tái)采用的配置為Intel(R) Core(TM) i7-9750H CPU @ 2.60GHz 2.59 GHz,操作系統(tǒng)為Windows 10。訓(xùn)練與測(cè)試平臺(tái)深度學(xué)習(xí)框架采用pytorch1.2.0,編程語(yǔ)言為Python。

        4.3 目標(biāo)檢測(cè)模型測(cè)試效果分析

        本文提出的目標(biāo)檢測(cè)改進(jìn)算法模型與YOLOV4-tiny目標(biāo)檢測(cè)算法模型經(jīng)100個(gè)epoch訓(xùn)練完成后,均處于穩(wěn)定收斂狀態(tài)。改進(jìn)模型的total_loss:5.0675,val_loss:4.9257,均低于YOLOV4-tiny模型的total_loss:5.3310和val_loss:5.1688。改進(jìn)的算法模型權(quán)重大小為26.8 MB,適合在硬件移植使用,具有較好的實(shí)用價(jià)值。

        為解決昏暗復(fù)雜環(huán)境下的目標(biāo)檢測(cè)問(wèn)題,本文提出了針對(duì)昏暗復(fù)雜環(huán)境的改進(jìn)算法,該算法在該環(huán)境的實(shí)際測(cè)試過(guò)程中能夠較好識(shí)別出目標(biāo)物體,有效地解決該環(huán)境下的目標(biāo)檢測(cè)問(wèn)題。本文為提高對(duì)比效果,將YOLOV4-tiny目標(biāo)檢測(cè)算法也與圖像增強(qiáng)算法進(jìn)行融合,各模型測(cè)試效果對(duì)比如圖9所示。

        通過(guò)圖9測(cè)試效果對(duì)比可以看出在昏暗復(fù)雜環(huán)境下改進(jìn)的算法模型相對(duì)于YOLOV4-tiny算法模型,目標(biāo)檢測(cè)精度有較大提升,相比于融合了圖像增強(qiáng)的YOLOV4-tiny算法模型,目標(biāo)檢測(cè)精度也有一定提升。并且改進(jìn)后的算法模型有效解決了目標(biāo)檢測(cè)過(guò)程中目標(biāo)誤檢、漏檢問(wèn)題。測(cè)試結(jié)果表明改進(jìn)后的算法模型適用于實(shí)際工程化應(yīng)用。

        4.4 目標(biāo)檢測(cè)模型評(píng)估

        本文對(duì)目標(biāo)檢測(cè)模型進(jìn)行模型評(píng)估過(guò)程中,將MAP(mean average precision)作為目標(biāo)檢測(cè)精度的評(píng)估指標(biāo),將FPS(frames per second)作為目標(biāo)檢測(cè)速度的評(píng)估指標(biāo)。本文為全面分析改進(jìn)算法模型性能,引入YOLOV4模型參與評(píng)估,保證評(píng)估數(shù)據(jù)的完整性。本文對(duì)各類別AP(average precision)值對(duì)比分析見表1。

        表1 各類別AP值對(duì)比分析

        通過(guò)表1可以看出,融合圖像增強(qiáng)算法之后YOLOV4和YOLOV4-tiny算法模型相較與原來(lái)的算法模型,在一些類別的檢測(cè)精度上都有一定程度的提升,改進(jìn)的算法模型相較于YOLOV4-tiny算法模型在5種類別的AP值上都有較為顯著的提升。

        本文為進(jìn)行目標(biāo)檢測(cè)的FPS評(píng)估,選用了測(cè)試集中100張測(cè)試圖片。經(jīng)測(cè)試,YOLOV4模型測(cè)試總用時(shí)為7.83 s,當(dāng)融入圖像增強(qiáng)算法后,總用時(shí)為8.69 s,YOLOV4-tiny模型測(cè)試總用時(shí)為4.57 s,當(dāng)融入圖像增強(qiáng)算法后,總用時(shí)為5.26 s,本文所提出的改進(jìn)算法在測(cè)試過(guò)程中的總用時(shí)為5.55 s。

        目標(biāo)檢測(cè)模型性能評(píng)估見表2。

        表2 目標(biāo)檢測(cè)模型性能評(píng)估

        在昏暗的復(fù)雜環(huán)境下,本文所提出的改進(jìn)算法模型相較于YOLOV4-tiny目標(biāo)檢測(cè)模型的平均精度提升了14.79%,較融合了圖像增強(qiáng)算法的YOLOV4-tiny平均精度提升了3.06%。改進(jìn)算法模型的檢測(cè)速度能達(dá)到18 FPS,比YOLOV4目標(biāo)檢測(cè)模型高出5 FPS,能滿足實(shí)際工程應(yīng)用中的實(shí)時(shí)性要求。

        4.5 系統(tǒng)測(cè)試結(jié)果分析

        監(jiān)測(cè)系統(tǒng)底層中的STM32主控端的模塊化代碼編寫采用C語(yǔ)言,經(jīng)過(guò)實(shí)際的測(cè)試發(fā)現(xiàn),能實(shí)現(xiàn)系統(tǒng)所需要的功能。在此基礎(chǔ)上通過(guò)OpenCV進(jìn)行實(shí)時(shí)顯示監(jiān)測(cè)系統(tǒng)測(cè)試結(jié)果,從而保證監(jiān)測(cè)系統(tǒng)運(yùn)行效果可視化。監(jiān)測(cè)系統(tǒng)實(shí)物及測(cè)試效果如圖10所示。

        圖10監(jiān)測(cè)系統(tǒng)測(cè)試結(jié)果表明,監(jiān)測(cè)系統(tǒng)有較好的識(shí)別精度以及決策控制能力,能夠完成昏暗復(fù)雜環(huán)境下的目標(biāo)檢測(cè)任務(wù),實(shí)現(xiàn)智能化目標(biāo)監(jiān)測(cè)。

        5 結(jié)束語(yǔ)

        本文為進(jìn)行昏暗復(fù)雜環(huán)境下混合路況的目標(biāo)檢測(cè),提出了一種基于YOLOV4-tiny的改進(jìn)算法。該改進(jìn)算法相較于改進(jìn)前的YOLOV4-tiny算法模型既提高了監(jiān)測(cè)系統(tǒng)在昏暗復(fù)雜環(huán)境下目標(biāo)檢測(cè)精度,又解決了目標(biāo)誤檢與漏檢問(wèn)題,同時(shí)能保證系統(tǒng)的魯棒性、隱蔽性與安全性,滿足系統(tǒng)進(jìn)行實(shí)時(shí)目標(biāo)監(jiān)測(cè)的工程化要求。本文將改進(jìn)算法模型融入zed雙目相機(jī)中,進(jìn)行多源數(shù)據(jù)的采集工作,監(jiān)測(cè)系統(tǒng)將獲取到的數(shù)據(jù)經(jīng)數(shù)據(jù)決策后,建立數(shù)據(jù)庫(kù)連接與底層通信管道,能夠?qū)崟r(shí)進(jìn)行異常數(shù)據(jù)存儲(chǔ)及底層控制,進(jìn)而實(shí)現(xiàn)昏暗復(fù)雜環(huán)境下混合路況的目標(biāo)監(jiān)測(cè)工程化。

        猜你喜歡
        環(huán)境檢測(cè)模型
        一半模型
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        長(zhǎng)期鍛煉創(chuàng)造體內(nèi)抑癌環(huán)境
        一種用于自主學(xué)習(xí)的虛擬仿真環(huán)境
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        孕期遠(yuǎn)離容易致畸的環(huán)境
        環(huán)境
        日韩久久av电影| 帮老师解开蕾丝奶罩吸乳网站| 久久久久香蕉国产线看观看伊| 欧美激情五月| 国产女主播福利一区在线观看| 久久日韩精品一区二区| 成人无码av一区二区| 色噜噜狠狠色综合成人网| 午夜影院91| 国产人妖在线观看一区二区三区| 亚洲熟妇无码久久精品| 日日噜狠狠噜天天噜av| 国产99页| 性感的小蜜桃在线观看| 九九影院理论片私人影院| 俺来也俺去啦最新在线| 狠狠精品久久久无码中文字幕 | 日本女同av在线播放| 粉嫩小泬无遮挡久久久久久| 真人与拘做受免费视频| 久久久久久久国产精品电影| 亚洲白嫩少妇在线喷水 | 国产精彩视频| 国产精品老女人亚洲av无| 国产裸体美女永久免费无遮挡 | av中文码一区二区三区| av中文字幕一区不卡| 国产成人精品综合在线观看| 国产日产高清欧美一区| 日韩肥熟妇无码一区二区三区| 亚洲第一黄色免费网站| 一本色道久久88精品综合| 五月天婷婷综合网| 天堂a版一区二区av| 东北女人啪啪对白| 越南女子杂交内射bbwxz| 久久久久综合一本久道| 亚洲黄色av一区二区三区| 极品少妇被猛的白浆直喷白浆| AV永久天堂网| 亚洲一区二区三区色偷偷|